1
/
の
1
畳み込みニューラルネットワークにおける複数層へのDropout適用と適用層の違いによる汎化能力への影響
畳み込みニューラルネットワークにおける複数層へのDropout適用と適用層の違いによる汎化能力への影響
通常価格
¥440 JPY
通常価格
セール価格
¥440 JPY
単価
/
あたり
税込
カテゴリ: 部門大会
論文No: PS6-9
グループ名: 【C】2022年電気学会電子・情報・システム部門大会
発行日: 2022/08/24
タイトル(英語): Applying dropout to multiple layers in convolutional neural networks and effects on generalization ability due to difference applying layer
著者名: 前田 悠希(千葉工業大学),山口 智(千葉工業大学)
著者名(英語): Yuuki Maeda (CHIBA INSTITUTTE OF TECHNOLOGY),Satoshi Yamaguchi (CHIBA INSTITUTTE OF TECHNOLOGY)
要約(日本語): ニューラルネットワークの性能をはかる主な指標の1つに、主に未知の入力に対する推論が可能かを評価する汎化能力がある。汎化能力を向上させる手法は複数あるが、本研究ではその中の一つであるDropoutに着目する。Dropoutの実装方法としてはネットワークの終端付近に実装し、また実装の手法として確立を使う方法があり、これは実装するのが容易でよく使われる手法である。しかし、Dropoutが提案されてからもニューラルネットワークは進歩しており、ネットワークが複雑化したことで実装する際、考慮すべきことも増えた。そのため、本研究ではDropoutを終端ではない複数個所に適用する。これにより汎化性能やパラメータの設定にどのような影響をもたらすかを報告する。
受取状況を読み込めませんでした
