連続行動空間の深層強化学習を用いたジョブスケジューリング
連続行動空間の深層強化学習を用いたジョブスケジューリング
カテゴリ: 研究会(論文単位)
論文No: IS18027
グループ名: 【C】電子・情報・システム部門 情報システム研究会
発行日: 2018/05/27
タイトル(英語): Job scheduling by deep reinforcement learning in continuous action space
著者名: 中村 拓紀(大阪大学),鮫島 正樹(大阪大学),菅野 裕介(大阪大学),松下 康之(大阪大学)
著者名(英語): Hiroki Nakamura(Osaka University),Masaki Samejima(Osaka University),Yusuke Sugano(Osaka University),Yasuyuki Matsushita(Osaka University)
キーワード: 深層強化学習|連続的行動空間|スケジューリング|Deep reinforcement learning|Continuous action space|Scheduling
要約(日本語): 本稿では,ジョブの完了期限からの遅延を最小化するジョブスケジューリング問題を対象とする.深層強化学習を用いた既存研究では,リソースに割り当てるジョブを選択し,可能な限り早く処理するように割り当てるが,負荷が動的に変化する状況では遅延を低減できない.本稿では,割り当てるジョブと割当時刻を連続行動空間として同時に学習する手法を提案し,将来の負荷に応じてリソースを確保するような割当を実現する.
要約(英語): This paper addresses a job scheduling problem for minimizing slowdown from jobs' deadlines. In prior work, jobs are assigned to earliest time slots of available resources by deep reinforcement learning, which cannot decrease the slowdown under dynamically changing workload. We propose a job scheduling method to keep resources for incoming workload by learning which jobs and time slots are assigned as continuous action space.
原稿種別: 日本語
PDFファイルサイズ: 2,697 Kバイト
受取状況を読み込めませんでした
