안녕하세요?
진나번 시간에 언급을 한대로 '기계학습'에 대해서 포스팅을 하려고 하는데, 우선 지난번 포스팅에 이야기했는 내용은 이전까지는 단순히 컴퓨터 안에서 사람의 신경을 모방 했다는 내용이라면, 이번에는 이 모방된 인공 신경망을 어떻게 조금은 더 구체적으로 내부에서 무슨일이 일어나서 '학습'을 하는지에 대해서 Newton 2018년 1월호 기사에 있는 내용을 토대로 포스팅 하고자 합니다.
먼저 위 그림은 뉴럴 네트워크에 의해 추출된 특징을 분류한 것입니다. 여기서 기계학습의 초반에는 위 그림의 묘사와 같이, '딸기'의 형태적인 특징을 파악하는데, 각각의 모양에 따라 확율을 매겼다고 합니다. 일단 기사의 내용만 봐서는 이 확률들이 정확히 어떤 논리에 의해서 매겨진 것인지는 알 수 없습니다. 하지만 진정한 문제는 저렇게 확률이 매겨진 다음이 문제라고 합니다.
문제는 위 그림처럼, 딮러닝에서 '숨겨진 층'을 이용 아무리 조합을 해도, 초반에는 사과와 딸기를 정확하게 구분해 내지 못하는 문제점이 노출 되었다고 합니다. 그러는 인공지능이 어떻게 개선이 되는지는 기사에서는 정확하게 나와 있지는 않습니다. 다만, 기사의 내용에 의하면, 인공지능 스스로 출력층에서 입력층 쪽으로 신호를 보내서, 숨겨친 층의 '선의 연결 방법-중요도 평가'를 바꾸어 간다고 합니다.
즉, 처음부터 '답'을 알고 있는 상태에서 인공지능으로 하여금 최상의 결과가 나올 때 까지 계속해서 숨겨진 층의 연결망을 바꾼다는 것입니다. 그렇게 해서 연결망이 나아지면 계속 새로운 결과를 받고, 이 결과를 받으면서 마치 피드백처럼 서로 영향을 주고 받으면서 결과를 달리 한다는 것입니다.
결국 위에 올라온 내용도 지난번 딮러닝과 큰 차이가 없는 내용이기는 합니다. 다만 예전에는 컴퓨터의 연산속도가 느려서 이런 피드백을 많이 하지는 못했다고 합니다. 다만 연산 프로세서(중앙 처리 장치)의 발전으로 인해 이런 기계학습을 수천번까지 반복 함으로써 올바른 답을 발견하게 되었다고 합니다.
위 그림은 기계 학습의 마지막 단계를 묘사하는 그림입니다. 마지막으로 수천번의 기계학습을 하고나서야 딸기라는 것을 85%의 확률로 인식할 수 있다고 합니다. 기사에서는 오차의 합계가 초반에는 100%였으다가 이제는 30%라고 하는데, 제가 보기에는 아직도 갈길이 멀어 보인다는 생각이 들기는 듭니다.
결국 인간의 '신경망'을 흉내 냈다고 하지만, 아직 사람의 신경망에 비해서 그 효율이 떨어지는 것이 아닌가 합니다. 하기야 실제로 뇌 속에 있는 신경 세포는 단순히 전기적인 자극만이 오고가는 것이 아니라, 수 많은 화학물질-신경전달 물질을 분비하고 수용체가 잡는 방식으로 작동을 하기 때문입니다. 이걸 생각해 보면, 아직도 인공지능이 갈길은 조금은 멀어 보인다는 생각이 듭니다.
'과학 토막상식 이야기' 카테고리의 다른 글
아실로마의 인공지능 23원칙 (0) | 2018.02.03 |
---|---|
인공지능이 어떻게 번역을 하는가? (0) | 2018.02.02 |
말은 많이 들었지만, 잘은 몰랐는 '딮 러닝(Deep Learning)' (0) | 2018.01.23 |
콘택트 렌즈에 대한 토막상식 (0) | 2018.01.12 |
생각해보면 어이없는 산성식품 논쟁 (6) | 2018.01.11 |