안녕하세요?


예전에 인공지능이 어떻게 해서 사물을 인식 할 수 있는지에 대해서 포스팅을 했었던 적이 있었습니다. 그 때는 '딮러닝'이라는 기능을 사용해서 인공 지능이 스스로 딸기라는 것을 학습할 수 있었습니다. 이에 대해서는 아래의 링크를 타고 들어가서 한번 읽어 주셨으면 합니다.


링크:말은 많이 들었지만, 잘은 몰랐는 '딮 러닝(Deep Learning)'



먼저 위의 그림은 유명한 '뱀의 회전 착시'라는 이미지로, 가만히 있는 도형이 사람의 눈에는 회전하고 있는 것으로 보이는 유명한 그림인데, 이에 대해서는 '예측부호화'라고 해서, 이 가설에 따르면 우리가 인식하는 눈앞의 풍경이 보이는 그대로가 아니라 그 풍경으로 예측한 '약간 뒤의 미래'라는 가설입니다.




이 '예측 부호화'를 아직까지 검증한 사례는 없지만, 이 '예측 부호화'의 메커니즘을 부여한 인공 지능에도 사람과 같은 착시가 되는지를 실험하였다고 합니다. 그 결과 먼저 사람이 유원지 안을 돌아다닌 5시간 짜리 동영상으로 인공지능을 12시간 학습을 시켰다고 합니다. 그후 이 인공 지능에게 '뱀의 회전'이라는 착시 그림을 보여 주었다고 합니다.



그러자 인공지능도 사람처럼 정지된 그림인데, 이 것이 움직인다고 인식하는 것을 보여 주었다고 합니다. 결국 이 실험으로 '예측 부호화'라는 것이 인간의 사물인식 기능이라는 것을 증명 했다고 하는데, 아직까지는 단순히 이것만 가지고서는 어떻다고 말을 하기 어렵다는 생각이 듭니다.




우선 사람의 신경망을 '흉내'낸 것이 인공신경망이고, 이것을 바탕으로 '학습'을 인공지능이 하였다고 합니다. 그런데 이게 100% 사람의 뇌와 같으냐 하면, 그건 또 아닌 것 인게 바로 이 '인공신경망'입니다. 결국 지금의 기술로는 검증 가능해 보이는 방법으로 검증을 한 것은 맞으나, 이런다고 해서 이게 인간의 뇌와 100% 같다고는 보장을 못한다는 생각이 듭니다.



하지만 그럼에도 불구하고 한정된 상황-아직까지 인류는 실험용으로 100% 인간과 동일한 뇌를 만들 수 없기에, 가장 유사한 것으로 실험해서 얻은 결과가 아닌가 하는 생각이 듭니다. 기사는 인공지능이 속았다는 것에 촛점을 맞추었지만, 제가 보기엔 한정된 상황에서 어쩔 수 없이 이 '딮러닝'을 이용한 것으로 보입니다.

+ Recent posts

티스토리 툴바