商品情報にスキップ
1 2

AI技術の実際性向上のための説明困難なルールによるアプローチ

AI技術の実際性向上のための説明困難なルールによるアプローチ

通常価格 ¥660 JPY
通常価格 セール価格 ¥660 JPY
セール 売り切れ
税込

カテゴリ: 研究会(論文単位)

論文No: ST24014

グループ名: 【C】電子・情報・システム部門 システム研究会

発行日: 2024/08/20

タイトル(英語): Approach based on Hard-to-Explain Rules to Improve Practicality of AI-based Technologies

著者名: 稲元 勉(愛媛大学),樋上 喜信(愛媛大学)

著者名(英語): Tsutomu Inamoto(Ehime University),Yoshinobu Higami(Ehime University)

キーワード: ルールベース|人工神経回路網|分類問題|信頼されるAI|rule-base|artificial neural network|classification problem|trustworthy AI

要約(日本語): 本発表では,「AI技術の実際性の向上を指向した機械学習技術調査専門委員会」の発足に至った,深層学習の技術的課題の達成に貢献できると筆頭著者が考えている,説明困難なルールによるアプローチを,それらの課題を解決する楽観的シナリオとして示す.あわせて,それらのシナリオの達成状況やそのアプローチ自体が抱える問題点も示す.

要約(英語): In this study, we explain an approach based on the hard-to-explain rule, which is expected by the authors to solve some technical difficulties of the deep learning technology. We also display some optimistic scenarios brought by the approach and some known weaknesses of the approach.

本誌: 2024年8月23日システム研究会

本誌掲載ページ: 3-6 p

原稿種別: 日本語

PDFファイルサイズ: 550 Kバイト

販売タイプ
書籍サイズ
ページ数
詳細を表示する