강화학습80 100에포크 강화학습과 부딪친 한계 안녕하세요? 이번 포스팅에서는 지난번 포스팅에서 200에포크에서도 여전히 과적합이 된 것이 아닌가 하는 의문이 들어서, 한번 100에포크로 더욱더 강화학습의 횟수를 내려서 한번 강화학습으로 모델을 6개 생성해 보았으며, 여기서 나온 결과를 바탕으로 백 테스트까지 해 보았습니다. 먼저 yellowoperation이라는 프로젝트로 가서, 위 스크린샷에서 보이는 것처럼 총 학습에 사용이 될 에포크의 숫자를 100으로 확 줄이도록 합니다. 그리고 100에포크로 줄었더니 강화학습에 걸린 시간이 20분도 걸리지 않은 것을 확인할 수 있었습니다. 2번째 강화학습에서는 위 스크린샷에서 보이는 것처럼 22분이 걸린 것을 볼 수 있었습니다. 3번째 강화학습에서는 시간이 조금 덜 걸려서 20분이 걸렸는데, 200에포크에서도.. 2019. 2. 24. 200에포크에서 강화학습을 시킨, 1분 단타매매의 결과 안녕하세요? 가지가지 일이 있어서 오늘의 포스팅이 늦어졌습니다. 아무튼 간에 이러니 저러니 해도, 지난번 포스팅에서 약속드린 대로, 200에포크만 강화학습을 해서, 한번 과다하게 학습을 하게 되는 과적합을 한번 피해보고자, 학습하는 횟수인 에포크를 그냥 200으로 줄여서 강화학습을 7번 들어가서 그 결과를 시험해 보았습니다. 먼저 위 스크린샷에서 보이는 것처럼 yellowoperation을 해서 학습하는 전체 에포크 숫자를 위 스크린샷처럼 200으로 만들어 보았습니다. 먼저 첫번재 강화학습이 끝난 다음의 상황입니다. 일단 전체적인 학습 에포크가 줄어서 이런지는 모르겠습니다만, 지난번에 비해서 정말 짧은 시간이 걸린 것을 생각할 수 있습니다. 한번 더 강화학습을 했는 결과에서는 이렇게 나온건데, 이번에는 .. 2019. 2. 23. 500에포크로 강화학습을 시킨 결과와 또 다른 좌절 안녕하세요? 지난번 포스팅에서 어떻게 1000에포크로 강화학습을 시킨 결과가 너무 과적합이 되었는지 몰라도, 패턴이 2가지 정도로 백테스트 결과 나오는 것을 확인할 수 있었습니다. 그래서 한번 강화학습의 횟수인 에포크를 절반으로 줄여서 한번 들어가 보기는 보았습니다만, 이번에도 결과가 시원치 않은 것을 확인할 수 있었고, 그 내용을 포스팅 하고자 합니다. 먼저 첫번째 강화학습의 결과입니다. 어찌된 것인지 몰라도 확습할 데이터의 양이 많아서 인지, 위 스크린샷에서 보이는 것처럼 3시간 50분에 가까운 시간이 걸린 것을 확인할 수 있었습니다. 그나마 2번째 강화학습의 경우에는 위 스크린샷에서 보이는 것처럼 그나마 나은 상황인 것을 확인할 수 있었습니다. 그래도 2시간 넘어 걸렸다는 것은 변하지 않습니다. 그.. 2019. 2. 22. 단타매매를 하기 위한 시도 중 찾아낸 새로운 오류 안녕하세요? 이래저래 왜 인지 모르는 모델이 제대로 결정을 못하는 상황이 벌어지는 와중에, 드디어 왜 지금까지 모델이 아무런 결정을 하지 않았는지에 대해서 알수 있게 되었습니다. 아무튼 이것을 바탕으로 새로이 강화학습에 들어가는 시도까지 해서, 그 내용을 자세하게 포스팅 하고자 합니다. 먼저 위 스크린샷처럼 10분봉 차트를 그냥 한번 최신으로 가지고 와서, CS홀딩스에 대해서 다시한번 백 테스트를 한 결과입니다. 일단 너무 과적합이 되었는지, 어째서인지 모델이 2가지 패턴중에 하나로 나오는 것을 볼 수 있습니다. 실제로 결정된 에포크 결과를 보면, 여기서는 그나마 다행으로 어째서 인지 모델이 행동을 결정했는데, 대신 2가지 패턴중에 하나로 나오는 것으로 봐서, 1000에포크의 학습은 너무 과적합이 된 것.. 2019. 2. 21. 이전 1 ··· 4 5 6 7 8 9 10 ··· 20 다음