본문 바로가기

에러107

오류사냥을 위한 다양한 시도들과 실패 안녕하세요? 지난번에는 생각지도 못했던 오류가 실제로는 존재를 하고 있었고, 이 오류를 소 뒷걸음 치다가 쥐 잡은 격으로 잡는데 성공했습니다. 이번 포스팅에서는 메인 오류인 왜 처음 120개의 데이터에 대해서는 아무런 작업도 하지 않다가 이후에야 작업을 하는 지에 대해서 한번 그 원인을 알아보고, 해결책을 찾고자 합니다. 먼저 위 스크린샷처럼 agent.py에 있는 내용이 문제가 된 것이 아닌가 하는 생각이 들어서, 과거처럼 바꾸어 놓은 다음에 한번 강화학습에 들어가 봅니다. 2분도 되지 않는 시간이 걸려서 강화학습이 끝나는 것을 확인할 수 있기는 있었습니다. 그런데 나아지기는 커녕, 과거에 않 좋은 형태 그대로 나오는 것을 확인할 수 있었습니다. 다음으로는 위 스크린샷을 보시다 시피, 차트 데이터에다가.. 2019. 3. 3.
400에포크 강화학습 결과와, 우연히 잡은 오류 안녕하세요? 지난번 포스팅에서 400에포크로 강화학습을 했는 강화학습의 모델이 5개 나왔다는 것을 올렸습니다. 이제 이번 포스팅에서 이 5개의 모델에 대해서 한번 강화학습을 하도록 하고, 다음으로 할 일은 지난번 포스팅에서 우연히 잡은 이 에러를 한번 잡도록 하는 시도를 했는데, 그 과정에서 있었는 줄도 모르는 오류를 하나 잡는데 성공했습니다. 먼저 구글 드라이브에서 5개의 강화학습의 모델을 다운로드 받도록 합니다. 그리고 나서 위 스크린샷처럼 RLTrader를 작동시켜서 백테스트에 들어가 보도록 합니다. 그런에 뭐라고 해야 할까요? 이번 강화학습에서도 그다지 신통치 않게도 결과가 나오는 것을 확인할 수 있었습니다. 역시 2종류의 패턴을 만들어 내기만 하고 있습니다. 실제로 백테스트의 결과를 그래프로 표.. 2019. 3. 3.
400에포크를 늘려서 하는 강화학습과 동시에 발견한 한가지 에러 안녕하세요? 지난번에 300에포크로 강화학습의 횟수를 늘려서 모델에 학습을 시켜 보았습니다만, 그렇게 결과는 좋지는 못했습니다. 그래서 이번에는 400으로 조심스럽게 올려보면서 한번 강화학습을 해 보는데, 문제는 그렇게 강화학습을 진행 시키는 동안에 한번 확인해 볼 것이 있어서 확인을 해 보는 동안 새로운 것을 하나 알게 되었습니다. 그래서 이번 포스팅에서 그 내용을 올리고자 합니다. 먼저 yellowoperation 프로젝트를 열고, 위 스크린샷에서 보이는 것처럼 400에포크로 설정을 한 다음에, 저장을 하고 구글 드라이브에 업로드해 봅니다. 그리고 나서 한번 강화학습에 들어가 봅니다. 다음으로 한번 과거의 데이터를 검색해 보았습니다. 그랬더니, 과거에는 위 스크린샷처럼 처음부터 모델이 제대로 결정을 .. 2019. 3. 2.
단타매매를 하기 위한 시도 중 찾아낸 새로운 오류 안녕하세요? 이래저래 왜 인지 모르는 모델이 제대로 결정을 못하는 상황이 벌어지는 와중에, 드디어 왜 지금까지 모델이 아무런 결정을 하지 않았는지에 대해서 알수 있게 되었습니다. 아무튼 이것을 바탕으로 새로이 강화학습에 들어가는 시도까지 해서, 그 내용을 자세하게 포스팅 하고자 합니다. 먼저 위 스크린샷처럼 10분봉 차트를 그냥 한번 최신으로 가지고 와서, CS홀딩스에 대해서 다시한번 백 테스트를 한 결과입니다. 일단 너무 과적합이 되었는지, 어째서인지 모델이 2가지 패턴중에 하나로 나오는 것을 볼 수 있습니다. 실제로 결정된 에포크 결과를 보면, 여기서는 그나마 다행으로 어째서 인지 모델이 행동을 결정했는데, 대신 2가지 패턴중에 하나로 나오는 것으로 봐서, 1000에포크의 학습은 너무 과적합이 된 것.. 2019. 2. 21.