商品情報にスキップ
1 1

畳み込みニューラルネットワークにおける複数層へのDropout適用と適用層の違いによる汎化能力への影響

畳み込みニューラルネットワークにおける複数層へのDropout適用と適用層の違いによる汎化能力への影響

通常価格 ¥440 JPY
通常価格 セール価格 ¥440 JPY
セール 売り切れ
税込

カテゴリ: 部門大会

論文No: PS6-9

グループ名: 【C】2022年電気学会電子・情報・システム部門大会

発行日: 2022/08/24

タイトル(英語): Applying dropout to multiple layers in convolutional neural networks and effects on generalization ability due to difference applying layer

著者名: 前田 悠希(千葉工業大学),山口 智(千葉工業大学)

著者名(英語): Yuuki Maeda (CHIBA INSTITUTTE OF TECHNOLOGY),Satoshi Yamaguchi (CHIBA INSTITUTTE OF TECHNOLOGY)

要約(日本語): ニューラルネットワークの性能をはかる主な指標の1つに、主に未知の入力に対する推論が可能かを評価する汎化能力がある。汎化能力を向上させる手法は複数あるが、本研究ではその中の一つであるDropoutに着目する。Dropoutの実装方法としてはネットワークの終端付近に実装し、また実装の手法として確立を使う方法があり、これは実装するのが容易でよく使われる手法である。しかし、Dropoutが提案されてからもニューラルネットワークは進歩しており、ネットワークが複雑化したことで実装する際、考慮すべきことも増えた。そのため、本研究ではDropoutを終端ではない複数個所に適用する。これにより汎化性能やパラメータの設定にどのような影響をもたらすかを報告する。

販売タイプ
書籍サイズ
ページ数
詳細を表示する