強化学習(DQN)で​学習した方策(Q-N​etwork)の保存​方法について

12 次查看(过去 30 天)
一馬 平田
一馬 平田 2021-10-31
お世話になります。
rlQValueRepresetationにて学習済みのQ-networkを呼び出したいのですが、
強化学習(DQN)で学習した方策(Q-Network)はどうように保存すればよいでしょうか。
rlTrainingOptionsでエージェントを保存できることは確認致しましたが、学習済みのQ-Networkを確認することは出来ませんでした。
私の確認不足により、もし、rlTrainingOptionsで学習済みのQ-Networkが保存可能な場合、Q-Networkの呼び出し方法を教え頂けないでしょうか。

采纳的回答

Toshinobu Shintai
Toshinobu Shintai 2021-10-31
エージェントによって形式が変わってきますが、基本的には「agent」オブジェクトの中に学習済みの方策は格納されています。
コマンドとしては「getModel」というコマンドで取り出すことができます。Actor-Critic形式のエージェントの場合は「getActor」コマンドも必要になると思います。
  1 个评论
一馬 平田
一馬 平田 2021-11-1
ご回答頂きましてありがとうございます。
「getmodel」を使って、Q-Networkの呼び出しを試してみようと思います。
追加質問となり、申し訳ございませんが、
「getmodel」で呼び出した呼び出した方策(Q-Network)を使用し、別の対象の学習を行う時、
一部の層の重みを凍結させたいのですが、どのようにすればよろしいでしょうか。

请先登录,再进行评论。

更多回答(0 个)

产品


版本

R2021b

Community Treasure Hunt

Find the treasures in MATLAB Central and discover how the community can help you!

Start Hunting!