AI技術の実際性向上のための説明困難なルールによるアプローチ
AI技術の実際性向上のための説明困難なルールによるアプローチ
カテゴリ: 研究会(論文単位)
論文No: ST24014
グループ名: 【C】電子・情報・システム部門 システム研究会
発行日: 2024/08/20
タイトル(英語): Approach based on Hard-to-Explain Rules to Improve Practicality of AI-based Technologies
著者名: 稲元 勉(愛媛大学),樋上 喜信(愛媛大学)
著者名(英語): Tsutomu Inamoto(Ehime University),Yoshinobu Higami(Ehime University)
キーワード: ルールベース|人工神経回路網|分類問題|信頼されるAI|rule-base|artificial neural network|classification problem|trustworthy AI
要約(日本語): 本発表では,「AI技術の実際性の向上を指向した機械学習技術調査専門委員会」の発足に至った,深層学習の技術的課題の達成に貢献できると筆頭著者が考えている,説明困難なルールによるアプローチを,それらの課題を解決する楽観的シナリオとして示す.あわせて,それらのシナリオの達成状況やそのアプローチ自体が抱える問題点も示す.
要約(英語): In this study, we explain an approach based on the hard-to-explain rule, which is expected by the authors to solve some technical difficulties of the deep learning technology. We also display some optimistic scenarios brought by the approach and some known weaknesses of the approach.
本誌掲載ページ: 3-6 p
原稿種別: 日本語
PDFファイルサイズ: 550 Kバイト
受取状況を読み込めませんでした

