Local Interpretable Model-agnostic Explanationsによる ガスタービン異常検知の説明
Local Interpretable Model-agnostic Explanationsによる ガスタービン異常検知の説明
カテゴリ: 研究会(論文単位)
論文No: ST22025,SMF22032
グループ名: 【C】電子・情報・システム部門 システム/【D】産業応用部門 スマートファシリティ合同研究会
発行日: 2022/10/30
タイトル(英語): Explanation of a Gas Turbine Generator anomaly detection using Local Interpretable Model-agnostic Explanations
著者名: 山崎 岳大(明治大学),福山 良和(明治大学),島崎 祐一(富士電機),長田 悠人(富士電機),村上 賢哉(富士電機),飯坂 達也(富士電機),松井 哲郎(富士電機)
著者名(英語): Takahiro Yamasaki(Meiji University),Yoshikazu Fukuyama(Meiji University),Yuichi Shimasaki(Fuji Electric co., Ltd),Yuto Osada(Fuji Electric co., Ltd),Kenya Murakami(Fuji Electric co., Ltd),Tatsuya Iizaka(Fuji Electric co., Ltd),Tetsurou Matsui(Fuji Electri
キーワード: 説明可能なAI|異常検知|ガスタービン|LIME|explainable artificial intelligence|anomaly detection|gas turbine generator|local interpretable model-agnostic explanations
要約(日本語): ガスタービンにおいて,機械学習による異常検知モデルを実運用する際,異常検知モデルの予測結果とその要因が,現場の利用者の業務知識・経験から,合意できることが求められる。本論文では,異常検知モデルの予測結果とその要因を説明するためにXAI(eXplainable Artificial Intelligence)の手法を適用し,その説明結果を報告する。
要約(英語): When an anomaly detection model based on machine learning is put into practical use in a gas turbine, it is necessary to be able to agree on the prediction results of the anomaly detection model and its factors based on the operational knowledge and experience of the on-site users. In this paper, technique of XAI (eXplainable Artificial Intelligence) is applied to explain prediction results of an anomaly detection model and its factors, and report explanation results.
本誌: 2022年11月2日システム/スマートファシリティ合同研究会
本誌掲載ページ: 45-48 p
原稿種別: 日本語
PDFファイルサイズ: 1,057 Kバイト
受取状況を読み込めませんでした
 

 
               
    