본문 바로가기

기계학습110

다신한번 시도하는 강화학습 모델 8개의 도전 안녕하세요? 지난번에 TPU를 이용해서 구글 코랩에서 강화학습을 진행한 이래, 한번 더 모델을 8개 만들고 나서, 이 모델들이 얼마나 수익을 올릴 수 있을지에 대해서 한번 백테스트를 하는 과정을 거쳤습니다. 일단 하루종일 작업을 해서 강화학습의 모델을 8개 얻는데는 성공했습니다. 강화학습으로 찾은 1번째 모델의 결과입니다. 2번째 모델인데, 이 역시 지난번과 별 차이가 없다는 생각이 듭니다. 다음으로는 위 스크린샷과 같이, 3번째 모델까지 작업을 하였습니다. 다음으로는 4번째 모델을 가지고 오는 데 성공했습니다. 그런데 학습과정은 그렇게 차이가 있는지 의문이 들었습니다. 그리고 나서 5번째 학습한 결과입니다. 그 다음으로는 6번째 모델을 학습한 결과입니다. 하루종일이 걸린 것이 맞는지 7번째 모델을 얻을.. 2018. 12. 24.
원숭이 투자자(MT)로 백테스팅을 한 결과 안녕하세요? 이번 포스팅에서는 일단 최저로 AJ렌터카라는 주식 종목에서 1년 6개월간의 데이터인 2017년 5월 2일부터 2018년 12월 7일까지의 결과를 가지고 한번 원숭이 투자자라고 해서 모든 행동을 렌덤하게 진행하는 투자자를 만들어 볼 것이고, 그런 투자를 10회에 걸쳐서 반복해서 얼마나 수익률을 거두는 지를 살펴보고자 합니다. 먼저 일일히 코드를 주석처리 하고 바꾸기가 귀찮기도 하기 대문에, 일단 Qt Designer에서 위 스크린샷처럼 원숭이 투자자자라는 체크박스를 만들어 주도록 합니다. 그리고 나서 위 스크린샷에 보이는 것처럼 PyCharm에서 체크박스의 상태가 변한다 = stateChanged라는 이벤트라고 해서 체크박스를 건드리면 Monkey_Trader_Activation이라는 메서드가.. 2018. 12. 23.
8개 모델의 추가적인 결과 part2 안녕하세요? 지난번 포스팅에 이어서 이번에도 한번 8개의 모델을 하루종일 작업을 해서 얻었으며, 관련된 내용을 이번 포스팅에서 이어서 올리고자 합니다. 3번째 모델의 강화학습 결과도 역시 마찬가지로 어떻게 된 것인지 에포크가 증가하면 증가할 수록 그냥 주식을 사서 보유만 하고 있는 것을 볼 수 있습니다. 4번째 모델의 강화학습 결과도 다를 것이 없어서, 역시 1000에포크가 되면서 랜덤한 행동이 줄어 들면서, 계속해서 주식을 보유만 하는 현상이 벌어지고 있습니다. 5번째 모델의 결과도 역시 마찬가지라고 할 수 있습니다. 6번째 강화학습이 어떻게 이루어 졌는지 알려주는 결과입니다. 여기서 계속해서 차이가 없는 것 같은 기분이 들기도 합니다. 7번째 강화학습의 결과를 보고 계십니다. 여기서도 역시 1000 .. 2018. 12. 23.
8개 모델의 추가적인 결과 part1 안녕하세요? 이번 포스팅에서는 금요일 밤에 열심히 구글 코랩의 TPU를 돌려서 나온 강화학습의 모델들과, 이 모델들이 어떤 학습을 했으며, 얼마나 수익이 나오는 지를 한번 살펴 보고자 합니다. 그런데 내용이 너무 길다는 생각이 들어서 중간에 한번 잘라야 했습니다. 먼저 1시간 30분 정도 걸려서 첫번째 모델을 얻는데 성공했습니다. 이제 시간이 걸려서 두번째 모델도 얻었습니다. 세번째 모델도 순조롭게 얻는데 성공했습니다. 4번째 모델도 순조롭게 얻어 오는데 성공하기는 했습니다. 이제 계속해서 하루종일 작업을 해서 5번째 모델도 얻는데 성공했습니다. 계속해서 구글 드라이브의 제 폴더 안에 강화학습의 모델이 쌓여가기 시작합니다. 그런데 6번째 강화학습부터 새로운 일이 생긴 듯 했습니다. 뭐냐 하면, 바로 강화.. 2018. 12. 23.