안녕하세요?


예전 포스팅에서 인공지능 의사라고 해야 할까요? 의료용 AI인 '왓슨'에 대해서 포스팅을 했던 적이 있었습니다.


링크 : 인공지능 의사인 왓슨에 대한 기사를 읽고나서


그때는 왜 왓슨이 사용되며, 무슨 일을 하는지에 대해서만 설명을 하였는데, 9월달 '과학동아'의 기사를 읽어보니, 이 '왓슨'에 대해서 몇몇 흥미로운 사실이 있기에, 이번 포스팅에서는 관련된 내용을 포스팅 하고자 합니다.



먼저 과학동아의 기사가 작성된 것은 8월달로 보이는데, 이 시점에서 한국에 '왓슨'이 도입된지는 9개월이 되었으며 414명의 환자를 진료하는데 사용이 되었다고 합니다. 한달에 평균 50명의 환자를 진단 했으며, 환자 한명당 20분 이상이 걸렸다고 합니다. 그러면서 이 과학동아의 기사가 나온 2017년 9월까지 총 8개의 암-유방암, 폐암, 위암, 자궁경부암, 난소암 등을 진단하는데 쓰인다고 합니다.




다만 이러고도 100% 의사의 역할을 대신 하는 것은 아니고, 내과, 핵의학과, 영상의학과, 방사선과 등 여러 전문분야의 전문의가 모이는 '다학제 진료'를 해야 하는 '원칙'이 있다고 합니다. 그래서 지금 단계의 왓슨은 '능력이 뛰어난 전공의' 실력은 된다고 합니다. 다만 최종적인 판단은 '인간'인 의사들이 결정을 해야 하는 단계가 남아 있지만, 그래도 '성능은 좋다' 라고 보시면 될듯 합니다.



국애네엇는 한국의 환자 정보-개인 정보는 아니고, 의료 데이터라고 해야 할까요? 환자를 진료하고, 경과등을 지켜본 데이터가 외국으로 나가기 때문에 국산 AI의 개발을 주장하고 있다고 합니다. 하지만 예전 포스팅에서 언급한 적이 있는 만큼, 왓슨이 뛰어난 이유는 '인간'의 한계를 벗어난 방대한 양의 의학적 자료와 데이터에 있습니다. 이런 점에서 미루어 볼 때, 외국의 방대한 의료 데이터와 국내의 의학적 자료를 공유하는 것이 더 이득이라고 생각이 됩니다.



이제 본론으로 돌아가서, 기사의 내용에 따르면 암 진단에 사용된 이 '왓슨'은 정확하게는 '왓슨 포 온콜로지(waston for oncology)'라고 해서 암 진단에 특화된 AI인데, 유전체를 전문적으로 다루는 '왓슨 포 지노믹스(waston for genomics)'와 연동이라고 해야 할까요? 이름만 '왓슨'이지 담당하는 '분야'가 다른 두 개의 AI를 서로 연동시켜서 협업하는 연구가 현재 진행중이라고 합니다.




아직까지는 '왓슨 포 지노믹스'에 등록된 유전자 종보 데이터는 수십만명 수준이지만, 이렇게 수십만에서 수백만으로 등록되는 정보가 많아지면 활용도가 달라 진다고 합니다. 지금까지 소개된 인공지능 의사인 '왓슨'은 '왓슨 포 온콜로지'로, 의학 논ㅁ분이나 교과서에 싣려 있는 내용을 토대로 진단을 하고 있지만, '왓슨 포 지노믹스'와 연계될 경우 암 유전자의 유무, 발현빈도, 등 유전 정보까지 따질 수 있다고 합니다.



결국 왓슨이라는 AI도 따지고 보면, 인간이 머리로는 할 수 없는 방대한 양의 데이터를 처리하는 도구라고 보시면 될 듯 합니다. 실제 기사에서 언급되는 내용으로 봐서는 의학저널 300종 이상, 의학 교과서 200권 이상, 그리고 기타 의학품 정보와 환자 치료 사례까지 포함해서 총 1500만 페이지 이상의 정보를 습득했다고 합니다. 이 정도면 어지간한 암에 관해서 의학 '도서관'이라고 해도 될 듯 합니다.



다만 한가지 개인적으로 염려가 되는 것은 왓슨은 손과 발, 그리고 눈이 없기에 사람이 왓슨에게 데이터를 입력해야 하는데, 여기서 오류가 생기면 어떻게 하나 하는 문제가 있습니다. 이 방법에 대해서 '왓슨'의 개발사인 IBM에서 무언가 대책이 있을 것이라는 생각이 듭니다. 다만 통계학에서도 나와 있는 이 입력의 오류는 어떻게 처리할지 모르겠습니다.




거기다가 마지막으로 '왓슨'의 문제라기 보다는 '연구 윤리'의 문제인데, '문헌 오염'이 일어날 경우 얼마나 신속하게 이를 수정할 수 있는 지도 의문이기는 합니다. 멀리 갈 것도 없이, 과거 한국에서는 '황우석 교수'의 논문조작 사건이 터진적이 있는데, 의학 연구에서도 누군가가 실험 데이터를 조작하고, 이게 여러개의 다른 연구에 영향을 주었다면, 여러편의 의학논문이 잘못되었다는 결과가 나옵니다. 이는 곧 왓슨에 입력된 '데이터'를 수정해야 하는데, 이에 대한 대책도 개인적으로 궁금해 집니다.

저작자 표시
신고

안녕하세요?


요즘 4차 산업혁명이다 뭐다 해서 '인공지능'에 대해서 상당히 논란도 많고, 위험성을 경고하는 목소리도 많습니다. 이건 어제 오늘의 문제도 아니기도 하거니와 상당수는 인공지능의 '반란'같은 것을 우려하고 있기도 합니다. 때마침 '한국 스켑틱'의 vol 11에서는 이에 대해서 심도있게 논의를 하였는 [인공지능의 위협은 실재적인가]라는 기사가 있기에 이를 읽고나서 리뷰해 보고자 합니다.


기사는 3개의 기고문으로 이루어져 있으며, 첫번째 글은 [왜 인공지능을 두려워해야 하는가]라고 매튜 그레이브스(Matthew Graves)란 사람이 기고한 글로써, 인공지능의 위험성에 대해서 다루고 있습니다. 그러나 [인공지능은 위협이 될 수 없다]라는 마이클 셔머(Michael Shermer)의 글과 [인공지능은 시뮬레이션일뿐 합성이 아니다]라는 피터 카산(Peter Kassan)의 글에서 반박을 한다고 해야 할까요? 인공지능의 위험에 대해서 반박하는 글로 구성이 되어 있었습니다.




첫번째 기고문인 [왜 인공지능을 두려워해야 하는가]라는 글에서 저자는 먼저 인간의 지능은 '태아의 머리'가 물리적인 제약인 '산도 birth canal'을 통과해야 하는 문제가 있어서 '제약조건'이 있지만, 인공지능에게는 이런 '제약조건'이 없음을 언급하고 있습니다. 이러한 인공지능의 특징 때문에 2050년까지 '사람이 하는 대부분의 일을 최소한 보통 사람만큼 잘 수행할 수 있을' 가능성을 언급합니다.



일단 기사는 '보편적 인공지능(artificial general intelligence, AGI)'의 개발에 대해서 언급을 하면서 다소 이해하기 힘든 전문용어를 너무 많이 상요해서 이해가 어려운 면이 많았습니다. 다만 저자는 이 글에서 우선 인공지능에 '의욕(ambitious)'을 배재할 수 없으며, 이 '의욕'이 의도하지 않은 결과를 불러온다는 가능성에 대해서 언급을 하고 있습니다.


물론 컴퓨터에게 '의욕'이 무슨소리인지 부터 '이해가 안되는'것은 사실입니다. 하지만 저자는 주장하고자 하는 것은 아마 '지치지 않고 스스로를 발전시키는' 인공지능이 '인간의 가치관'을 학습하지 않은채 ''이 되는 것을 우려 한다는 것을 알 수 있었습니다. 하지만 저자가 이러한 부분을 알기 쉽게 글을 전개했으면 좋지 않았을 것인가 하는 의문이 듭니다.



결국 저자는 염려하고 있는 것이란 글의 말미에서 언급했다 시피, 인간이 오류-인공지능에 문제가 있다고 판단해서 손을 쓸려고 하는 순간이 '이미 늦은' 경우에 대해서 걱정을 하고 있으며, 미리미리 이런 위험에 대해서 걱정을 하고서 '대책'을 마련하는 연구를 할 것을 주장하고 있습니다. 다만 이 글을 다 읽어본 독자로서는 글을 좀 더 알기 쉽도록 풀어서 쓰고, 전문용어의 사용을 줄였으면 어떻까 했습니다.




두번째 글을 기작 하기를 가지가지 지구 전체적으로 산적한 문제점을 열거하면서, 여기서는 '폭주하는 인공지능'에 대한 '두려움'에 촛점을 맞춘다고 언급을 하면서 글이 시작됩니다. 그러면서 기고문은 '인공지능 비관론자'들의 주장을 소개하면서, 먼저 잘못된 주장인 '사악한 인공지능'에 대해서 다음과 같이 반박을 합니다. '인공지능은 사악하다기 보다는 도덕관념이 없다고 보아야 한다' 라고 주장을 하면서, 인간을 비롯한 그 어떤 것에도 관심이 없다는 사실을 언급합니다.



뭐라고 해야 할까요? 일단 인공지능은 '감정'이 없어서 모든 것을 '계산' 해야만 행동을 할 수 있습니다. 거기다가 인공지능의 또 다른 문제로 저자가 제시하고 있는 것은 바로 인공지능은 '의식aware'가 없다는 것을 언급하고 있습니다. 한마디로 알파고가 바둑에서 이겨도, 그 어떤 '기쁨'같은 '감정'도 없고, 심지어 자기가 '바둑'을 두는지도 인식할 수 없다는 것입니다.


이를 통해서 저자는 다음과 같은 말을 주장합니다. [따라서 이와 같은 감정을 갖도록 진화하기 전에는 인공징능이 우리를 상대로 적대적 행동을 하는 일은 일어나지 않을 것이므로 사악한 컴퓨터에 대한 두려움은 근거가 없는 두려움이란 것이다.]



한마디로 인공지능이 무슨 '적대적인 감정'이 있어서 반란을 일으킬 일은 없다는 것입니다. 그래도 불안감이 가시지 않을 사람을 위해서 저자는 인공지능이 문제를 일으키는 시나리오에서 '만약if'가 많다는 것을 언급하고 있습니다.


1)만약 인간과 동등한 인공지능을 개발하고

2)만약 인공지능이 자신의 작동원리를 완전히 이해하고

3)만약 인공지능이 인간을 능가할 정도로 '스스로'를 개조하고

4)만약 그 초인공지능이 어쩌다가 악의를 품고 자원을 소비하기 시작하고

5)만약 우리가 그 인공지능을 멈추는 데 실패한다.


즉, 이 시나리오에서 만약만 5번이나 언급이 되었고, 이 5번이 모두 연속으로 일어나야 한다는 것을 언급하고 있습니다. 한마디로 가능성이 없는 것은 아니지만, 일어날 개연성이 낮아도 너무나 낮다는 의미가 됩니다.


마지막 기고문은 제목부터 인공지능은 '시뮬레이션'일 뿐 실제가 아니라는 주장을 하고 있습니다. 여기서 '인공 artificial'이라는 단어에는 '합성 synthetic'이라는 의미와 '모사 simulated'라는 두가지 의미가 있다는 사실을 언급하면서 기고문은 시작을 하고 있습니다. 위 사진처럼 '모사'란 아무리 뛰어나도 '비행 시뮬레이션'이지 진짜로 '비행기를 조종'하는 것은 아니라는 것을 저자는 강조하고 있습니다.




이를 통해서 인공지능은 '합성'이 아니기 때문에 '자연적 지능'과 물리적, 기능적으로 동일한 것이 아니라는 주장을 세번째 기고문의 저자는 하고 있습니다. 이게 왜 인공지능이 '위협적'이 아닌가 라는 말이 되는가 하면, '모사'란 일부 성질이 비슷하지만 전부는 아닌 것처럼, 인공지능도 결국 인간의 지능을 '따라'하는 것이지, 진짜로 인간이 '지능'이라는 것을 만든 것은 아니라는 의미가 됩니다.



세번째 기고문에서 저자는 이해를 돕기 위해서 '유리로 만든 가짜 다이아몬드'에 해당하는 '모사'와 '수열합성 방법으로 만든 인조 다이어몬드'에 해당하는 '합성'을 예시로 들었습니다. 아무리 정교하게 유리로 다이어몬드를 만들어도, 이게 탄소가 결정을 이루어서 만들어진 다이아몬드는 아니라는 것입니다. 이런 예시는 피부로 체감이 되는데, '자연적 지능'과 '인공지능'에 대해서는 피부로 체감이 되지 않는 면이 있습니다.


그래서 저자는 간단한 예시로 '언어적 지능(linguistic intelligence)'에 대해서 언급을 하면서, 이에 대비가 되는 ''언어적 지능(pre-linguistic intelligence)에 대해서 언급을 하면서 이야기를 풀어가고 있는 것을 볼 수 있었습니다.



기사에서 그렇게 자세하게 나오지 않은 점은 유감스러웠지만, 인류가 '언어'라는 것을 쓰기 전에도 '지능'이라는 것이 존재했으며, 대다수의 동물들도 '언어'라는 것이 없어도 존재하는 '지능'이 있다고 합니다. 그런데 이 '인공지능'은 결국 '언어'에 속박되어 있지, '비언어적 지능'에 대해서는 다룰 수 없는 한계가 존재하고 있다고 합니다.


이런 비언어적 지능을 다룰 수 없다는 문제때문에 '인공지능'은 인간의 '자연적 지능'을 '합성이 아닌 모사'한 것에 불과하다는 주장을 하고 있습니다. 다만 기고문 자체에서 나오는 아쉬운 점이라면, 이 '비언어적 지능'에 대해서 조금 더 상세하게 설명했으면 어떠했을까 하는 생각이 듭니다. 하지만 그렇게 하기도 쉽지 않은게, 안 그래도 기고문의 길이가 긴 편인데, 너무 길이 길어지는 부작용이 보이기도 하였습니다. 


이것으로 한국 스켑틱 vol 11에서 다루고 있는 [인공지능의 위협은 실제적인가]라는 기사를 리뷰해 보았습니다. 이 3가지 기고문이 기고된 잡지의 성격을 생각하면, 상당히 '회의적인' 시선으로 본 것은 틀림이 없습니다. 하지만 그럼에도 불구하고 인공지능의 위험성이 있기는 하지만, 각종 대중매체-매트릭스나 터미네이터 시리즈 처럼 위험한 것은 아니다라는 것을 주장하고 있는 것이 보였습니다.


다만 한가지 아쉬운 점이라면, 3가지 기고문의 저자들이 관련된 분야의 전문가가 되어서 글의 전문성이 살아나기는 했지만, 너무 어려운 전문용어를 많이 사용해서 일반인에게 자칫하면 이해하기 어려운 내용으로 비추어 질 수 있다는 점은 확실히 감점요인은 되었습니다.


저작자 표시
신고
  1. 책덕후 화영 2017.09.14 12:21 신고

    음... 제 관점에서 봤을 때 인공지능은 위험성이 어느정도는 있다고 봅니다. 왜냐하면 감정이 없다는 게 사회적으로 부정적인 결과를 불러오지 않는다는 전제가 잘못되었습니다. 사회공헌의 현장에서는 좋은 의도로, 착한 의도로 하는 일이 부정적인 결과를 가져오는 경우가 정말 많습니다. 애초에 그런 부분을 해결하는 게 사회공헌 전문가들이 진짜 해야 할 일입니다.

    일례로 사회공헌 분야가 돈이 안된다는 걸 알아도, 보람을 느낄 여지가 많기 때문에 착한일을 하고싶어하는 사람은 정말 많습니다. 그래서 이 분야는 항상 하고싶어하는 사람으로 넘쳐나고 그 결과 사회공헌 분야 종사자들의 임금이 낮아져서 최저임금 정도밖에 못버는 사람들이 정말 많습니다. 문제는 임금이 너무 낮아서 자기 자신의 자립도 안되는 수준인데 남의 자립을 도와준다는게... 이 문제 때문에 저도 한때 사회적경제 분야에 종사하려고 준비했었지만 포기하고 IT분야로 회귀했습니다. IT쪽에서도 임금체불 당해서 나왔다는게 함정이긴 하지만...

    요즘 이슈가 되고 있는 싸이코패스, 소시오패스는 뇌과학적으로 볼 때 사람을 해칠 감정을 느끼고 거기에 희열을 느끼는 사람이 아니라 감정을 느끼는 뇌의 영역에 문제가 있어서 감정을 못느끼는 사람입니다. 하지만 감정을 못느끼는 것의 결과가 보통 사회악적인 경우가 많기 때문에 사회문제가 되는 것입니다.

    여러 사례를 봤을 때 감정을 못느끼는 것은 사회악이 될 수 있습니다. 오히려 그 확률이 꽤 높은 편이라고 봅니다.

  2. 그렇군요.
    하긴 악의는 없는데, 멈추는 스위치가 없는 경우가 문제라고 언급은 합니다. 다만 어디까지나 악의라고 해야 할까요? 대중매체의 이런 AI는 안 나온다는 이야기지만, 사이코패스와 소시오패스에 대해 이야기하면 두번째 기고문 저자가 난감해 할지도요.

안녕하세요?


이번 포스팅은 헬스조선 2017년 6월호에 있었는 기사인 [10개 항목 입력, 10초만에 진단 끝~] 이라는 기사를 읽고나서, 이 기사에 대핝 리뷰를 하고자 합니다.


기사는 먼저 카자흐스탄의 4기 대장암 환자가 한국의 길병원까지 와서, 인공지능인 '왓슨'의 진단을 받는 것을 보여주면서 시작을 합니다. 개인적으로는 이 도입부가 기사를 읽는 독자에게 지루함을 덜어주고, 몰입감을 높일지는 모르나, 어떤 면에서는 굳이 이런 도입부가 필요한가? 하는 의문도 듭니다.


그러면서 인공지능 왓슨의 진료가 어떻게 진행이 되는지를 보여주고 있습니다. 기사에 따르면, 왓슨은 환자의 정보를 최소 10개에서 최대 80개까지 입력한다고 합니다. 기사의 제목처럼 진단이 끝나는데 걸리는 시간은 10초안에 끝나지만, 환자 정보를 입력하는 데 걸리는 시간이 5~10분이 걸린다고 합니다.


놀라운 것은 진단만이 아니라, 왓슨이 내놓는 답은 일반적인 치료법부터 치료기간, 항암제 종류까지 답변을 내놓는다고 합니다. 기사에서 언급된 카자흐스탄의 환자분의 경우에는 9가지 항암제를 추천했고, 16가지 항암제를 비추천했다고 합니다. 



위 그림에서 묘사된 것처럼 환자가 정보를 입력하기만 하면, 왓슨이 진단을 내려주는 것은 맞지만, 기사에 의하면 이게 일반인이 바로 쓸 수 있는 진단결과를 내놓는 것이 아니라는 뉘앙스를 풍기고 있습니다. 



많은 사람들이 인공지능의 발달로 전문직이 위험할 것이라고는 하지만, 이 기사를 볼때는 그렇지도 않다는 생각이 듭니다. 우선 왓슨이 진단에 걸리는 시간이 짧고, 정확도도 높지만, 그렇다고 해서 왓슨의 결과를 일반인 바로 사용할 수 있는 데이터는 아니라는 생각이 듭니다. 일반인이 해석하기 난해하고 이해가 안되기 때문에, 이런 데이터의 해석과 환자에게 치료법을 적용하는 것은 여전히 의사의 몫이라고 생각을 합니다


기사를 통해서 알 수 있었는 사실이지만, 인공지능 의사인 '왓슨'을 쓰는 곳은 길병원이지만, 정작 왓슨의 본체는 길병원에 있지 않고, 미국 IBM본사에 있다고 합니다. 그리고 환자의 개인정보가 누출되는 것을 막기 위해서, 환자를 식별할 수 있는 정보는 길병원에 보관이 되고, IBM본사로는 개식을 식별할 수 없는 정보만 제공이 된다고 합니다.


마지막으로 기사에서는 왜 왓슨을 쓰는가? 라는 질문에 다음과 같은 대답을 제시하고 있습니다. 우선 2015년에만 전 세계적으로 4만 4000편의 의학논문이 의료학술지에 발표가 되었다고 합니다. 하루에 122편의 새로운 논문이 나오는 격인데, 이를 사람이 일일히 읽으려면 도저히 따라갈 수 없다고 합니다.



제 아무리 머리가 좋아도, 자연적인 상태에서 하루에 논문을 122편 다 읽는다는 것은 불가능하며, 그 많은 정보를 모두 머릿속에 담아두는 것 또한 불가능한 일입니다. 결국 과거와는 달리, 인간이 찾아낸 의료정보가 방대해진 환경에서는 왓슨과 같은 인공지능이 선택이 아닌 필수라는 생각이 자연스럽게 듭니다.


이러한 점으로 [10개 항목입력, 10초만에 진단끝~]이라는 기사를 봤을 때, 앞부분의 도입부를 기사의 절반이상을 차지하지 말고, 더 짧게 했으면 좋지 않았을까 하는 생각이 들었습니다. 다만 그렇게 할 경우에는 기사가 자칫 지루해 질 수 있는 만큼, 과학이나 의학, 인공지능에 전혀 관심이 없는 독자들의 시선을 잡아준다는 점에서 양면성이 있다는 생각이 들었습니다.

저작자 표시
신고
  1. 몰드원 2017.06.17 15:25 신고

    인공지능 왓슨의 대해 잘 보고 가네요

안녕하세요?


이런저런 사정으로 인해서 좀 포스팅이 늦어졌습니다. 아무튼 오늘 도서관에 가서 매일경제 신문을 읽다보니 1면에 아주 흥미로운 기사가 하나 있었습니다. 정확한 제목은 기억이 나지는 않지만, 일단 주요내용은 머신러닝이라고 해서 기계가 학습하는 것을 이용해서 인공지능에게 금융거래를 맞겨서 얼마나 수익이 나오는지 여부를 지난 몇년간의 결과를 알아본 내용이었습니다.



결과는 지난번 바둑에서 사용된 알파고와는 다르게, 사람인 펀드 매니저가 5%의 수익을 올릴 동안 인공지능 펀드 매니저는 1%도 조금 못 미치는 수준의 수익을 올렸다고 합니다. 물론 매일경제 신문에서 뒤에 나오는 다음 기사에서는 아직 실망하기는 이르다는 기사를 내 보내면서 아직은 인공지능 기술이 부족해서 인간보다 수익을 크게 못 올렸다는 내용도 싣고 있기는 있었습니다. 


비록 본격적인 과학기술에 대한 기사는 아니지만, 이런 기사를 봐서는 아직까지는 인공지능이 완벽하다고 말하기는 어렵지 않을까 하는 생각이 듭니다. 물론 이대로 기술의 발전이 일어난다면 어떻게 될지는 모르는 일이 될 수도 있고, 기사에서도 언급을 했다 시피 미국의 도널드 트럼프 대통령이 당선되어서 발생한 여파를 제대로 대처하지 못한 것이 원인이기도 하다고 합니다. 


하지만 바둑과는 다르게 금융시장이라는 것은 고려해야 할 것도 많고, 아직까지 인공지능이라는 것이 계산을 제대로 해내지 못하는 부분도 있다는 생각이 듭니다. 실망하기에는 아직 이르기도 하고, 인공지능 마저 예상하지 못한 변수가 일어나기는 했지만, 아무튼 매일경제 신문의 기사는 한가지 사실을 말해주고는 있습니다.


지금 현재까지는 인공지능이 전문직의 일을 완전히 대체하지는 못하고 있으며, 아직까지는 불완전한 기술이다.

저작자 표시
신고

+ Recent posts

티스토리 툴바