본문 바로가기

전체 글3555

계속되는 수익모델 찾기의 여정 안녕하세요? 지난번 포스팅에서도 수익모델이 나오지 않아서, 하는 수 없이 이번에는 지연보상 임계치가 너무 낮아서 생긴 문제가 아닌가 하는 생각이 들었습니다. 그래서 이번에는 지연보상 임계치를 1%인 0.01로 높여서 한번 강화학습을 해보고자 합니다. 당연하다면 당연하게도 첫 단계로는 yellowoperation에 있는 main.py에 가서, 한번 위 스크린샷처럼 지연보상 임계치를 바꾸어 보도록 합니다. 첫번째 강화학습은 구글 코랩에서 2시간 30분을 넘겨서 완성이 되는 것을 볼 수 있었습니다. 지난번에 0.1%의 지연보상 임계치를 가지고서 작업을 하던 것에 비하면 조금 더 빨라진 정도입니다. 일단 이렇게 5개의 강화학습의 모델이 확보가 되었기 때문에, 모두 구글 드라이브에서 다운로드 받은 다음에 RLTr.. 2019. 3. 6.
1000에포크로 다시한번 강화학습 5회를 한 결과 안녕하세요? 일단 지난번 포스팅에서는 100회의 강화학습을 시켜 보았습니다만, 무언가 학습의 내용이 부족한 것인지 백 테스트 결과 전혀 수익을 내지 못하는 것을 보았습니다. 그래서 이게 강화학습의 횟수를 늘리는 김에 확실하게 늘려보자는 생각을 해서 한번 1000회로 늘려서 강화학습을 5회 하고, 강화학습의 모델들을 백테스트에 들어가 보았습니다. 먼저 위 스크린샷과 같이 yellowoperation에 가서, 100회로 되어 있던 것을 1000회로 더 올려주도록 합니다. 그리고 나서 구글 드라이브에 업로드 해 줍니다. 일단 강화학습의 횟수가 많아져서 이런 건지는 몰라도, 강화학습에 걸린 시간이 모두 3시간 가까이 걸리는 것을 확인할 수 있었습니다. 일단 이렇게 강화학습을 연속해서 진행을 하니, 점점 강화학습.. 2019. 3. 5.
100에포크로 다시한번 강화학습을 해본 결과 안녕하세요? 지난번 포스팅에서 그동안 저를 괴롭히던 문제를 해결을 하기는 했습니다. 이제는 제대로 된 학습 데이터를 바탕으로 해서 다시한번 구글 코랩에서 강화학습을 들어가 보고자 합니다. 먼저 yellowoperation프로젝트로 가서, 코드를 전부 수정해 주도록 합니다. 당연하다면 당연하게도 dropna()함수도 있다면 있는 것이고, 학습 데이터의 분리역시 만들어 주었습니다. 그리고 나서 학습 에포크의 횟수를 100으로 줄여서 한번 강화학습에 들어가 보고자 합니다. 일단 dropna()로 nan이 들어간 행을 제거한 덕분인지 학습데이터가 많이 줄어들었고, 그 덕분에 9분도 안 걸리는 것을 확인할 수 있었습니다. 잠시 시간이 흘렀고, 5개의 강화학습의 모델을 얻는데 성공하기는 성공했습니다. 이제 모두 구.. 2019. 3. 5.
드디어 해결된 오류와 그다지 기뻐할 것만도 아닌 결과 안녕하세요? 몇 포스팅 이전부터 계속해서 왜 인지 첫 주식 데이터에서 부터 결정을 하지 않는 에러가 보고가 되어 있었습니다. 그래서 이번에는 드디어 해결책을 찾아내는 데 성공했으며, 그 결과를 보여드리고자 합니다. 다만, 이 결과가 그렇게 까지 기뻐할 만한 결과만은 아니라는 점이 다소 아쉽기는 합니다. 먼저 인터넷상에 있는 RLTrader의 코드입니다. 이 코드에서는 자세히 보면 주식 데이터를 준비해서 datamanager.py에서 처리한 다음에 기간별로 자르고, 다음으로 학습 데이터 분리등이 일어납니다. 그런데 제 경우에는 반대로 먼저 기간별로 자르고 나서, datamanager.py에서 처리를 하는데, 이 때문에 문제가 생기는 것이 아닌가 하는 생각이 듭니다. 그래서 먼저 datamanager.py로.. 2019. 3. 4.