안녕하세요?
이번 포스팅에서는 다른것이 아니라 마지막으로 두개의 모델을 비교해 보기 위해서 기계학습 이후에 크롬 스프레드 시트를 써서 한번 정리해 보고자 합니다. 물론 이런 정리가 좀 정확하지 않을 수도 있고, 정말 엉뚱한 결과를 낼 수도 있지만, 그래도 일단 해 보았습니다.
이번에는 아예 1000에포크로 한번 기계학습의 빈도를 더 줄여서 더 좋은 결과가 나오는지 아닌지 알아 보고자 했습니다. 그래서 기계학습에 들어가고 나서........
학습된 모델을 가지고서 결과를 예측하기 위한 작업에 들어가 보도록 했습니다. 이런 작업을 하는 것으로 어떻게 다음 작업을 해서 결과를 보니......
그리고 나서 다음으로 진행한 것으로는 위 스크린샷에서 볼 수 있는 것처럼, 어떻게 애매하다면 애매한 결과만을 얻을 수 있었습니다.
이렇게 해서 위 스크린샷에서 볼 수 있는 것처럼, 일단 모델간에 비교를 해보니, 어이가 없게도 좀 생각과는 다른 결과가 나왔습니다.
그래서 한번 두번째 모델에서 위 스크린샷과 같이 일단은, 6000에포크의 기계학습을 해서, 어떤 결과가 나오는 지에 대해서 이야기를 해 보고자 합니다.
다음으로는 6000에포크 기계학습을 해서 나온 결과를 가지고서 일단은 다음 주가를 예측하는데 동원해 보도록 했습니다. 일단 이 결과에 대해서 이야기를 하자면.............
우선은 위 스크린샷에서 볼 수 있는 것과 같은 식으로 결과를 얻는데 성공하기는 성공했습니다. 이제 스프레드 시트에서 한번 작업을 해 보도록 합니다.
조금은 나은 결과가 나오기는 나왔습니다. 다만, 이 결과가 처음의 모델 1에 비해서 더 나은 결과라고 하기에는 상당히 애매한 면이 있습니다. 이에 대해서 이제는 에포크를 무의하게 늘리는 듯한 느낌이 들기에, 어떻게 모델을 한번 바꾸어 보고자 했습니다.
'무모한 도전-주식 인공지능 만들기' 카테고리의 다른 글
모델의 변형 & 적용 -6- (0) | 2022.02.11 |
---|---|
모델의 변형 & 적용 -5- (0) | 2022.02.11 |
모델의 변형 & 적용 -3- (0) | 2022.02.11 |
모델의 변형 & 적용 -2- (0) | 2022.02.11 |
모델의 변형 & 적용 -1- (0) | 2022.02.11 |