商品情報にスキップ
1 2

階層型再帰アテンションモデル

階層型再帰アテンションモデル

通常価格 ¥660 JPY
通常価格 セール価格 ¥660 JPY
セール 売り切れ
税込

カテゴリ: 研究会(論文単位)

論文No: ST21021

グループ名: 【C】電子・情報・システム部門 システム研究会

発行日: 2021/06/09

タイトル(英語): A Hierarchical Recursive Attention Model

著者名: 呉本 尭(日本工業大学),柴田 裕太郎(山口大学),間普 真吾(山口大学)

著者名(英語): Takashi Kuremoto(Nippon Institute of Technology),Yutaro Shibata(Yamaguchi University),Shingo Mabu(Yamaguchi University)

キーワード: 文章自動要約|リカレントニューラルネットワーク|アテンションモデル|学習性能|要約精度|ROUGE|text summarization|recurrent neural networks|attention model|learning performance|summarization accuracy|ROUGE

要約(日本語): 近年、リカレントニューラルネットワークを用いた文章自動要約に関する研究は盛んに行っている。本研究では、従来の長い文章も対応可能な再帰型アテンションモデルをベースに階層型アテンションモデルを構築することを提案する。ウェブサイトのニュース記事を用いた評価実験の結果より、提案モデルの学習性能及び要約精度がいずれも向上したことが明らかになった。

要約(英語): For text summarization, kinds variations of recurrent neural networks have been developed recently. In this study, a novel hierarchical attention model is proposed based on the conventional recursive attention model for articles in multiple sentences. Comparison experiments using news on websites data showed the priorities of the proposed method in learning performance and summarization accuracy.

本誌: 2021年6月12日システム研究会

本誌掲載ページ: 29-32 p

原稿種別: 日本語

PDFファイルサイズ: 677 Kバイト

販売タイプ
書籍サイズ
ページ数
詳細を表示する