畳み込みニューラルネットワークを用いた衣服画像の特徴抽出及び印象分類手法
畳み込みニューラルネットワークを用いた衣服画像の特徴抽出及び印象分類手法
カテゴリ: 部門大会
論文No: MC3-4
グループ名: 【C】2021年電気学会電子・情報・システム部門大会
発行日: 2021/09/08
タイトル(英語): A Method for Feature Extraction and Impression Classification of Clothing Images Using Convolutional Neural Networks
著者名: 大嶋 健悟(富山県立大学),高木 昇(富山県立大学),澤井 圭(富山県立大学),増田 寛之(富山県立大学),本吉 達郎(富山県立大学)
著者名(英語): Kengo OSHIMA (Toyama Prefectural University),Noboru TAKAGI (Toyama Prefectural University),Kei SAWAI (Toyama Prefectural University),Hiroyuki MASUTA (Toyama Prefectural University),Tastuo MOTOYOSHI (Toyama Prefectural University)
キーワード: 視覚障害者支援|LSTM|説明文生成モデル説明文生成モデル
要約(日本語): 全盲の視覚障碍者に服飾についてアンケート調査を実施したところ,特に多くの女性からファッションを自ら楽しみたいとの強い要望のあることが分かった.全盲の視覚障碍者は晴眼者の補助なしに衣服を購入することはできない.このような背景のもと,視覚障碍者支援を目的とした服飾選択支援の研究はいくつか存在し,製品化されたものもある.しかし,服の特徴(襟の有無,袖の長さ,服のタイプなど)や印象(明るい,暗い,きれい,さわやかなど)を読み取り,視覚障碍者の服飾選択を支援する研究は我々の調べた範囲では存在しない.そこで,衣類データセットであるDeepFashionを用いて畳み込みニューラルネットワーク学習して特徴抽出器を設計し,回帰型ニューラルネットワークを用いた,衣服の特徴や印象を説明する文章の自動生成手法を検討した.
PDFファイルサイズ: 1,453 Kバイト
受取状況を読み込めませんでした
