商品情報にスキップ
1 1

広がりを評価したQ-learningの学習効率向上

広がりを評価したQ-learningの学習効率向上

通常価格 ¥440 JPY
通常価格 セール価格 ¥440 JPY
セール 売り切れ
税込

カテゴリ: 部門大会

論文No: GS9-1

グループ名: 【C】平成28年電気学会電子・情報・システム部門大会講演論文集

発行日: 2016/08/31

タイトル(英語): Improving Q-learning by including the spread value function

著者名: 瀬古沢 照治(神奈川大学),河原崎 俊之祐(神奈川大学)

著者名(英語): Teruji Sekozawa|Shunnosuke Kawarasaki

キーワード: 機械学習|強化学習|machine learning|reinforcement Learning

要約(日本語): 本研究では従来のQ‐learningに状態価値関数を活用することによってエージェントが探索する環境の広がりを把握しQ‐learningの高速化を目指す。機械学習の分野において,代表的なものとしてQ‐learningがある。Q-learningの大きな利点として、実用的な問題に対して広範囲で適用可能であることが挙げられる。しかし、Q‐learningは、多くの学習時間を必要とし学習が遅いという問題がある。本研究では従来のQ‐learningにTD学習アルゴリズムよって更新された状態価値関数を活用し環境の広がりを評価する。環境の広がりを評価することによってQ‐learningの高速化を目指す。遷移先の状態価値関数を把握することで危険な領域への行動を避け失敗行動を選択しないようにする。提案手法はオリジナルのQ‐learningよりも少ない時間で有用な方策を得ることが確認でき、学習の高速化に有効である。

PDFファイルサイズ: 496 Kバイト

販売タイプ
書籍サイズ
ページ数
詳細を表示する