商品情報にスキップ
1 1

探索状態を拡大する冒険型Q-learningによる準最短経路獲得

探索状態を拡大する冒険型Q-learningによる準最短経路獲得

通常価格 ¥330 JPY
通常価格 セール価格 ¥330 JPY
セール 売り切れ
税込

カテゴリ: 研究会(論文単位)

論文No: IS18007

グループ名: 【C】電子・情報・システム部門 情報システム研究会

発行日: 2018/03/22

タイトル(英語): Discovering semi shortest path using adventurous Q-learning to expand state

著者名: 河原崎 俊之祐(神奈川大学),瀬古沢 照治(神奈川大学)

著者名(英語): Shunosuke Kawarasaki( Kanagawa University Graduate School),Teruji Sekozawa(Kanagawa University)

キーワード: 機械学習|強化学習|行動選択|行動履歴 |探索|Machine learning|Reinforcement learning|Q-learning|Action select |Action history|Search

要約(日本語): Q-earningの大きな利点として、実用的な問題に対して広範囲で適用可能であることが挙げられる。しかし、Q‐learningは、多くの学習時間を必要とし学習が遅いという問題がある。また、学習の高速化を目指し知識利用を重視すると探索が進まず、最適な方策を習得できないという欠点が生じる。そこで本研究ではエージェントが行動履歴を持ち、予め冒険的に探索を進めておく。提案手法は学習の高速化に有効であり最適な方策を得ることが確認された。

要約(英語): Q‐learning has the problem that a lot of learning time. We propose adventurous Q-learning. In this method, the agent has the action history, and the search is advanced to the unknown state beforehand adventuring. The proposal technique was effective for the speed-up of learning and this method was found the shortest route at high speed.

原稿種別: 日本語

PDFファイルサイズ: 1,243 Kバイト

販売タイプ
書籍サイズ
ページ数
詳細を表示する