-
Notifications
You must be signed in to change notification settings - Fork 0
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Follow up the Finite-horizon IRL algorithm #12
Comments
혹시 해당 논문을 선정한 이유가 있을까요? |
Minii joined this issue now |
Finite-horizon 쪽에서 강화학습 (ADP or IRL)을 적용한 논문들 위주로 살펴봤는데요, 제가 원하는 방향과 가장 일치했었습니다. |
Youngjun also joined this study. |
이 논문은 다음주는 설연휴이니 다다음주 월(2/7)까지 읽어보는 것 어떤가요? |
넹~ |
@Youngjun-Lee-FDCL @minii93 이 논문리뷰는 괜찮다면 따로 얘기하는 것보다 여기에 답글을 달면 좋겠습니다~ |
그게 편하다면 그렇게 합시다~ |
알겠습니다~ |
그럼 여기에 질문들을 마구 올려주시면 되겠어요~ |
내용적으로 어려운 것은 없었어요. |
저도 동일한 부분에 대해서 조금 이해가 가질 않는데요.. 파라미터(그림2, 5)를 보면 범위가 굉장히 커서 수렴을 한 것인지 잘 모르겠습니다. |
다음 논문을 follow-up 해보려고 합니다. 읽고 함께 얘기해보실 분?
[1] J. Zhao and M. Gan, “Finite-horizon optimal control for continuous-time uncertain nonlinear systems using reinforcement learning,” Int. J. Syst. Sci., vol. 51, no. 13, pp. 2429–2440, 2020, doi: 10.1080/00207721.2020.1797223.
The text was updated successfully, but these errors were encountered: