안녕하세요?


요즘 4차 산업혁명이다 뭐다 해서 '인공지능'에 대해서 상당히 논란도 많고, 위험성을 경고하는 목소리도 많습니다. 이건 어제 오늘의 문제도 아니기도 하거니와 상당수는 인공지능의 '반란'같은 것을 우려하고 있기도 합니다. 때마침 '한국 스켑틱'의 vol 11에서는 이에 대해서 심도있게 논의를 하였는 [인공지능의 위협은 실재적인가]라는 기사가 있기에 이를 읽고나서 리뷰해 보고자 합니다.


기사는 3개의 기고문으로 이루어져 있으며, 첫번째 글은 [왜 인공지능을 두려워해야 하는가]라고 매튜 그레이브스(Matthew Graves)란 사람이 기고한 글로써, 인공지능의 위험성에 대해서 다루고 있습니다. 그러나 [인공지능은 위협이 될 수 없다]라는 마이클 셔머(Michael Shermer)의 글과 [인공지능은 시뮬레이션일뿐 합성이 아니다]라는 피터 카산(Peter Kassan)의 글에서 반박을 한다고 해야 할까요? 인공지능의 위험에 대해서 반박하는 글로 구성이 되어 있었습니다.




첫번째 기고문인 [왜 인공지능을 두려워해야 하는가]라는 글에서 저자는 먼저 인간의 지능은 '태아의 머리'가 물리적인 제약인 '산도 birth canal'을 통과해야 하는 문제가 있어서 '제약조건'이 있지만, 인공지능에게는 이런 '제약조건'이 없음을 언급하고 있습니다. 이러한 인공지능의 특징 때문에 2050년까지 '사람이 하는 대부분의 일을 최소한 보통 사람만큼 잘 수행할 수 있을' 가능성을 언급합니다.



일단 기사는 '보편적 인공지능(artificial general intelligence, AGI)'의 개발에 대해서 언급을 하면서 다소 이해하기 힘든 전문용어를 너무 많이 상요해서 이해가 어려운 면이 많았습니다. 다만 저자는 이 글에서 우선 인공지능에 '의욕(ambitious)'을 배재할 수 없으며, 이 '의욕'이 의도하지 않은 결과를 불러온다는 가능성에 대해서 언급을 하고 있습니다.


물론 컴퓨터에게 '의욕'이 무슨소리인지 부터 '이해가 안되는'것은 사실입니다. 하지만 저자는 주장하고자 하는 것은 아마 '지치지 않고 스스로를 발전시키는' 인공지능이 '인간의 가치관'을 학습하지 않은채 ''이 되는 것을 우려 한다는 것을 알 수 있었습니다. 하지만 저자가 이러한 부분을 알기 쉽게 글을 전개했으면 좋지 않았을 것인가 하는 의문이 듭니다.



결국 저자는 염려하고 있는 것이란 글의 말미에서 언급했다 시피, 인간이 오류-인공지능에 문제가 있다고 판단해서 손을 쓸려고 하는 순간이 '이미 늦은' 경우에 대해서 걱정을 하고 있으며, 미리미리 이런 위험에 대해서 걱정을 하고서 '대책'을 마련하는 연구를 할 것을 주장하고 있습니다. 다만 이 글을 다 읽어본 독자로서는 글을 좀 더 알기 쉽도록 풀어서 쓰고, 전문용어의 사용을 줄였으면 어떻까 했습니다.




두번째 글을 기작 하기를 가지가지 지구 전체적으로 산적한 문제점을 열거하면서, 여기서는 '폭주하는 인공지능'에 대한 '두려움'에 촛점을 맞춘다고 언급을 하면서 글이 시작됩니다. 그러면서 기고문은 '인공지능 비관론자'들의 주장을 소개하면서, 먼저 잘못된 주장인 '사악한 인공지능'에 대해서 다음과 같이 반박을 합니다. '인공지능은 사악하다기 보다는 도덕관념이 없다고 보아야 한다' 라고 주장을 하면서, 인간을 비롯한 그 어떤 것에도 관심이 없다는 사실을 언급합니다.



뭐라고 해야 할까요? 일단 인공지능은 '감정'이 없어서 모든 것을 '계산' 해야만 행동을 할 수 있습니다. 거기다가 인공지능의 또 다른 문제로 저자가 제시하고 있는 것은 바로 인공지능은 '의식aware'가 없다는 것을 언급하고 있습니다. 한마디로 알파고가 바둑에서 이겨도, 그 어떤 '기쁨'같은 '감정'도 없고, 심지어 자기가 '바둑'을 두는지도 인식할 수 없다는 것입니다.


이를 통해서 저자는 다음과 같은 말을 주장합니다. [따라서 이와 같은 감정을 갖도록 진화하기 전에는 인공징능이 우리를 상대로 적대적 행동을 하는 일은 일어나지 않을 것이므로 사악한 컴퓨터에 대한 두려움은 근거가 없는 두려움이란 것이다.]



한마디로 인공지능이 무슨 '적대적인 감정'이 있어서 반란을 일으킬 일은 없다는 것입니다. 그래도 불안감이 가시지 않을 사람을 위해서 저자는 인공지능이 문제를 일으키는 시나리오에서 '만약if'가 많다는 것을 언급하고 있습니다.


1)만약 인간과 동등한 인공지능을 개발하고

2)만약 인공지능이 자신의 작동원리를 완전히 이해하고

3)만약 인공지능이 인간을 능가할 정도로 '스스로'를 개조하고

4)만약 그 초인공지능이 어쩌다가 악의를 품고 자원을 소비하기 시작하고

5)만약 우리가 그 인공지능을 멈추는 데 실패한다.


즉, 이 시나리오에서 만약만 5번이나 언급이 되었고, 이 5번이 모두 연속으로 일어나야 한다는 것을 언급하고 있습니다. 한마디로 가능성이 없는 것은 아니지만, 일어날 개연성이 낮아도 너무나 낮다는 의미가 됩니다.


마지막 기고문은 제목부터 인공지능은 '시뮬레이션'일 뿐 실제가 아니라는 주장을 하고 있습니다. 여기서 '인공 artificial'이라는 단어에는 '합성 synthetic'이라는 의미와 '모사 simulated'라는 두가지 의미가 있다는 사실을 언급하면서 기고문은 시작을 하고 있습니다. 위 사진처럼 '모사'란 아무리 뛰어나도 '비행 시뮬레이션'이지 진짜로 '비행기를 조종'하는 것은 아니라는 것을 저자는 강조하고 있습니다.




이를 통해서 인공지능은 '합성'이 아니기 때문에 '자연적 지능'과 물리적, 기능적으로 동일한 것이 아니라는 주장을 세번째 기고문의 저자는 하고 있습니다. 이게 왜 인공지능이 '위협적'이 아닌가 라는 말이 되는가 하면, '모사'란 일부 성질이 비슷하지만 전부는 아닌 것처럼, 인공지능도 결국 인간의 지능을 '따라'하는 것이지, 진짜로 인간이 '지능'이라는 것을 만든 것은 아니라는 의미가 됩니다.



세번째 기고문에서 저자는 이해를 돕기 위해서 '유리로 만든 가짜 다이아몬드'에 해당하는 '모사'와 '수열합성 방법으로 만든 인조 다이어몬드'에 해당하는 '합성'을 예시로 들었습니다. 아무리 정교하게 유리로 다이어몬드를 만들어도, 이게 탄소가 결정을 이루어서 만들어진 다이아몬드는 아니라는 것입니다. 이런 예시는 피부로 체감이 되는데, '자연적 지능'과 '인공지능'에 대해서는 피부로 체감이 되지 않는 면이 있습니다.


그래서 저자는 간단한 예시로 '언어적 지능(linguistic intelligence)'에 대해서 언급을 하면서, 이에 대비가 되는 ''언어적 지능(pre-linguistic intelligence)에 대해서 언급을 하면서 이야기를 풀어가고 있는 것을 볼 수 있었습니다.



기사에서 그렇게 자세하게 나오지 않은 점은 유감스러웠지만, 인류가 '언어'라는 것을 쓰기 전에도 '지능'이라는 것이 존재했으며, 대다수의 동물들도 '언어'라는 것이 없어도 존재하는 '지능'이 있다고 합니다. 그런데 이 '인공지능'은 결국 '언어'에 속박되어 있지, '비언어적 지능'에 대해서는 다룰 수 없는 한계가 존재하고 있다고 합니다.


이런 비언어적 지능을 다룰 수 없다는 문제때문에 '인공지능'은 인간의 '자연적 지능'을 '합성이 아닌 모사'한 것에 불과하다는 주장을 하고 있습니다. 다만 기고문 자체에서 나오는 아쉬운 점이라면, 이 '비언어적 지능'에 대해서 조금 더 상세하게 설명했으면 어떠했을까 하는 생각이 듭니다. 하지만 그렇게 하기도 쉽지 않은게, 안 그래도 기고문의 길이가 긴 편인데, 너무 길이 길어지는 부작용이 보이기도 하였습니다. 


이것으로 한국 스켑틱 vol 11에서 다루고 있는 [인공지능의 위협은 실제적인가]라는 기사를 리뷰해 보았습니다. 이 3가지 기고문이 기고된 잡지의 성격을 생각하면, 상당히 '회의적인' 시선으로 본 것은 틀림이 없습니다. 하지만 그럼에도 불구하고 인공지능의 위험성이 있기는 하지만, 각종 대중매체-매트릭스나 터미네이터 시리즈 처럼 위험한 것은 아니다라는 것을 주장하고 있는 것이 보였습니다.


다만 한가지 아쉬운 점이라면, 3가지 기고문의 저자들이 관련된 분야의 전문가가 되어서 글의 전문성이 살아나기는 했지만, 너무 어려운 전문용어를 많이 사용해서 일반인에게 자칫하면 이해하기 어려운 내용으로 비추어 질 수 있다는 점은 확실히 감점요인은 되었습니다.


저작자 표시
신고
  1. 책덕후 화영 2017.09.14 12:21 신고

    음... 제 관점에서 봤을 때 인공지능은 위험성이 어느정도는 있다고 봅니다. 왜냐하면 감정이 없다는 게 사회적으로 부정적인 결과를 불러오지 않는다는 전제가 잘못되었습니다. 사회공헌의 현장에서는 좋은 의도로, 착한 의도로 하는 일이 부정적인 결과를 가져오는 경우가 정말 많습니다. 애초에 그런 부분을 해결하는 게 사회공헌 전문가들이 진짜 해야 할 일입니다.

    일례로 사회공헌 분야가 돈이 안된다는 걸 알아도, 보람을 느낄 여지가 많기 때문에 착한일을 하고싶어하는 사람은 정말 많습니다. 그래서 이 분야는 항상 하고싶어하는 사람으로 넘쳐나고 그 결과 사회공헌 분야 종사자들의 임금이 낮아져서 최저임금 정도밖에 못버는 사람들이 정말 많습니다. 문제는 임금이 너무 낮아서 자기 자신의 자립도 안되는 수준인데 남의 자립을 도와준다는게... 이 문제 때문에 저도 한때 사회적경제 분야에 종사하려고 준비했었지만 포기하고 IT분야로 회귀했습니다. IT쪽에서도 임금체불 당해서 나왔다는게 함정이긴 하지만...

    요즘 이슈가 되고 있는 싸이코패스, 소시오패스는 뇌과학적으로 볼 때 사람을 해칠 감정을 느끼고 거기에 희열을 느끼는 사람이 아니라 감정을 느끼는 뇌의 영역에 문제가 있어서 감정을 못느끼는 사람입니다. 하지만 감정을 못느끼는 것의 결과가 보통 사회악적인 경우가 많기 때문에 사회문제가 되는 것입니다.

    여러 사례를 봤을 때 감정을 못느끼는 것은 사회악이 될 수 있습니다. 오히려 그 확률이 꽤 높은 편이라고 봅니다.

  2. 그렇군요.
    하긴 악의는 없는데, 멈추는 스위치가 없는 경우가 문제라고 언급은 합니다. 다만 어디까지나 악의라고 해야 할까요? 대중매체의 이런 AI는 안 나온다는 이야기지만, 사이코패스와 소시오패스에 대해 이야기하면 두번째 기고문 저자가 난감해 할지도요.

+ Recent posts

티스토리 툴바