본문 바로가기
무모한 도전-주식 인공지능 만들기

단층대 다층의 비교시작 -3-

by 인터넷떠돌이 2022. 2. 4.
반응형

안녕하세요?

 

이번 지난번 포스팅에서 2000에포크의 기계학습을 각각 단층 레이어와 다층 레이어에 시켰는데, 여기서는 그 결과를 한번 비교 분석부터 시작해 보고자 합니다. 마지막에 가서 생각하면 이걸 굳이 해야 하나 하는 생각도 들었지만, 그래도 기계학습을 다룬 예제에서 그렇게 나와 있어서 했다는 말 보다는 직접해서 이걸 왜 하는지 알아보는 것이 좋겠다는 생각이 들었습니다.

 

일단 단순히 2000에포크만 비교해 보자면, 오히려 에포크의 숫자가 늘어나면 날 수록, 다층 에포크가 그렇게 좋지 않은 결과를 보여주고 있습니다.

 

그래서 단층 레이어에서 한번 에포크를 늘렸을 경우를 한번 비교해 보았습니다. 이 경우에는 에포크가 단순히 늘어난 것이 더 나은 결과를 주기는 주었습니다.

 

그리고 나서 다음으로 진행해 보아야 하는 것으로는 역시나 다층의 경우 에포크를 늘렸을 경우 그렇게 큰 메리트가 없다는 결론이 나왔습니다.

 

 

다음 작업을 한번 해 보기 위해서, 각각의 다층 레이어의 한층 한층 사이라고 할 수 있는 코드 마지막에 시그모이드 함수를 구현하는 nn.Sigmoid()를 추가해 주도록 했습니다.

 

일단 가장 먼저 한 것은 200에포크 기계학습을 시켜 보도록 했습니다. 그리고 제 기대처럼 얼마 걸리지 않고 학습이 완료가 되었습니다.

 

다만 기다린 것과는 별개로, 일단 모델을 확보하는데 성공했기 때문에, 이 파일을 가지고서 이제 예측을 하기 위한 과정에 들어가 보도록 합니다.

 

그리고 중간에 프리징이 일어난 것 같기도 했습니다만, 일단 예측하는 것에 대하는 작업은 그렇게 큰 무리없이 마무리가 되기는 되었습니다.

 

일단 여기서 나오는 에러 비율을 보자면, 오히려 시그모이드 함수가 들어온 것 때문에 더 늘어난 것이 아닌가 하는 생각이 들 정도로 결과가 좋다고는 말하기 어려워 보입니다.

 

그래서 한번 2000에포크를 동원해서 여기서 한번 작업을 시작해 보도록 했습니다. 여기서는 조금은 더 기다리기는 해야 합니다.

 

일단 어느정도 시간이 걸린 끝에 어떻게 종료를 하기는 했습니다.일단 이렇게 해서 어떻게 일이 일단락 되기는 되었습니다만, 그렇다고 해서 모드 끝이 아니라, 이제 이 모델을 가지고 예측을 하는 일이 남아 있는데, 이건 다음 포스팅으로 미루도록 하겠습니다.

반응형