We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
分散Q学習にRNNを導入、経験再生における隠れ層の扱い方を実験的に解析
既存手法として零ベクトルを常に初期値として使う(Zero-State)と比較をした
データ収集時とReplay時に予測されたQ値(モデル予測)がどれくらい異なるのかを実験的に評価した(下のFig. 1の(a)がQ値の違いを計算する方法を示している)
Zero-StateよりもStored-Stateの結果がよかった
Burn-inのステップ幅は部分的にしか効果がなかった
The text was updated successfully, but these errors were encountered:
No branches or pull requests
分散Q学習にRNNを導入、経験再生における隠れ層の扱い方を実験的に解析
論文本体・著者
解きたい問題
* 分散型のDeep Q-Network agent(DQN)にRNNを導入したい
新規性
実装
実験・議論
既存手法として零ベクトルを常に初期値として使う(Zero-State)と比較をした
データ収集時とReplay時に予測されたQ値(モデル予測)がどれくらい異なるのかを実験的に評価した(下のFig. 1の(a)がQ値の違いを計算する方法を示している)
Zero-StateよりもStored-Stateの結果がよかった
Burn-inのステップ幅は部分的にしか効果がなかった
読んだ中での不明点などの感想
関連論文
The text was updated successfully, but these errors were encountered: