본문 바로가기

기계학습110

300에포크로 늘려본 강화학습의 결과 안녕하세요? 지난번 포스팅에서 언급한 대로, 강화학습으로 만들어진 모델이 2종류의 패턴을 만들어 내는 것을 보이자, 강화학습에 사용된 횟수가 부족한 것이 아닌가 해서 300에포크로 늘려서 강화학습을 한번 시켜보고, 그 결과를 포스팅 해 보고자 합니다. 먼저 위 스크린샷에 보이는 것처럼, 100으로 되어 있던 수치를 300으로 올려 보도록 해 보아야 합니다. 물론 위 화면은 yellowoperation에 있는 main.py를 수정한 것 입니다. 첫번째 강화학습의 경우 1시간 50분이 걸려서 끝난 것을 확인할 수 있었습니다. 일단 첫번째 모델의 강화학습이 끝났으니, 구글 코랩에서는 두번째 강화학습을 돌리도록 합니다. 다운로드한 첫번째 강화학습의 모델을 가지고 오도록 합니다. 그리고 나서 RLTrader를 작.. 2019. 2. 28.
종목코드 002600으로 첫번째 시도를 했는 결과 안녕하세요? 일단 종목코드가 002600이라는 주식인 조흥의 주식에서 1분 단타매매시에 가장 적합한 것으로 지난번 포스팅에서 언급한 적이 있었습니다. 그래서 이번 포스팅에서는 이 조흥의 주식을 가지고서 한번 수익을 내어 보자는 것을 도전해 보았습니다만, 결과는 그다지 좋지가 않았습니다. 일단 조흥의 1분봉 캔들차트를 키움증권 Open API로 요청을 하면, 위 스크린샷과 같이 상당히 많은 양의 데이터가 나오는 것을 볼 수 있습니다. 일단 위 스크린샷에서 커서가 위치한 1346번째 줄이 바로 전체 1775행의 데이터 중에서 백테스트와 강화학습에 사용될 429개의 데이터를 제외하는 기준이 되는 곳 입니다. 1345번행 위로 모두 삭제를 하도록 합니다. 이렇게 하는 것으로 위 스크린샷처럼 572행의 데이터만 .. 2019. 2. 25.
100에포크 강화학습과 부딪친 한계 안녕하세요? 이번 포스팅에서는 지난번 포스팅에서 200에포크에서도 여전히 과적합이 된 것이 아닌가 하는 의문이 들어서, 한번 100에포크로 더욱더 강화학습의 횟수를 내려서 한번 강화학습으로 모델을 6개 생성해 보았으며, 여기서 나온 결과를 바탕으로 백 테스트까지 해 보았습니다. 먼저 yellowoperation이라는 프로젝트로 가서, 위 스크린샷에서 보이는 것처럼 총 학습에 사용이 될 에포크의 숫자를 100으로 확 줄이도록 합니다. 그리고 100에포크로 줄었더니 강화학습에 걸린 시간이 20분도 걸리지 않은 것을 확인할 수 있었습니다. 2번째 강화학습에서는 위 스크린샷에서 보이는 것처럼 22분이 걸린 것을 볼 수 있었습니다. 3번째 강화학습에서는 시간이 조금 덜 걸려서 20분이 걸렸는데, 200에포크에서도.. 2019. 2. 24.
200에포크에서 강화학습을 시킨, 1분 단타매매의 결과 안녕하세요? 가지가지 일이 있어서 오늘의 포스팅이 늦어졌습니다. 아무튼 간에 이러니 저러니 해도, 지난번 포스팅에서 약속드린 대로, 200에포크만 강화학습을 해서, 한번 과다하게 학습을 하게 되는 과적합을 한번 피해보고자, 학습하는 횟수인 에포크를 그냥 200으로 줄여서 강화학습을 7번 들어가서 그 결과를 시험해 보았습니다. 먼저 위 스크린샷에서 보이는 것처럼 yellowoperation을 해서 학습하는 전체 에포크 숫자를 위 스크린샷처럼 200으로 만들어 보았습니다. 먼저 첫번재 강화학습이 끝난 다음의 상황입니다. 일단 전체적인 학습 에포크가 줄어서 이런지는 모르겠습니다만, 지난번에 비해서 정말 짧은 시간이 걸린 것을 생각할 수 있습니다. 한번 더 강화학습을 했는 결과에서는 이렇게 나온건데, 이번에는 .. 2019. 2. 23.