論文の概要: Generalization Comparison of Deep Neural Networks via Output Sensitivity
- arxiv url: http://arxiv.org/abs/2007.15378v1
- Date: Thu, 30 Jul 2020 11:08:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 13:22:20.986708
- Title: Generalization Comparison of Deep Neural Networks via Output Sensitivity
- Title(参考訳): 出力感度によるディープニューラルネットワークの一般化比較
- Authors: Mahsa Forouzesh, Farnood Salehi and Patrick Thiran
- Abstract要約: 損失関数のバイアス分散分解における出力感度と分散との間には,強い経験的相関関係が認められた。
モデルの一般化性能を向上する一般的な手法を適用することにより,感度が低下することが判明した。
- 参考スコア(独自算出の注目度): 8.121462458089141
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although recent works have brought some insights into the performance
improvement of techniques used in state-of-the-art deep-learning models, more
work is needed to understand their generalization properties. We shed light on
this matter by linking the loss function to the output's sensitivity to its
input. We find a rather strong empirical relation between the output
sensitivity and the variance in the bias-variance decomposition of the loss
function, which hints on using sensitivity as a metric for comparing the
generalization performance of networks, without requiring labeled data. We find
that sensitivity is decreased by applying popular methods which improve the
generalization performance of the model, such as (1) using a deep network
rather than a wide one, (2) adding convolutional layers to baseline classifiers
instead of adding fully-connected layers, (3) using batch normalization,
dropout and max-pooling, and (4) applying parameter initialization techniques.
- Abstract(参考訳): 最近の研究は、最先端のディープラーニングモデルで使用される技術の性能改善にいくつかの洞察をもたらしたが、それらの一般化特性を理解するためにはさらなる作業が必要である。
我々は損失関数を入力に対する出力の感度にリンクすることでこの問題に光を当てた。
損失関数のバイアス分散分解における出力感度と分散の関係は,ラベル付きデータを必要とせず,ネットワークの一般化性能を比較するための指標として感度を用いることが示唆される。
その結果,(1)広帯域ではなくディープネットワークを用いた場合,(2)完全連結層を付加せずにベースライン分類器に畳み込み層を追加する場合,(3)バッチ正規化,ドロップアウト,最大プールの適用,(4)パラメータ初期化手法の適用など,モデルの一般化性能を向上させる一般的な手法を適用することにより感度が低下することが判明した。
関連論文リスト
- Towards Robust Out-of-Distribution Generalization: Data Augmentation and Neural Architecture Search Approaches [4.577842191730992]
我々は、ディープラーニングのための堅牢なOoD一般化への道を探る。
まず,認識に必須でない特徴間の素早い相関を解消するための,新しい効果的なアプローチを提案する。
次に,OoDシナリオにおけるニューラルアーキテクチャ探索の強化問題について検討する。
論文 参考訳(メタデータ) (2024-10-25T20:50:32Z) - Optimization dependent generalization bound for ReLU networks based on
sensitivity in the tangent bundle [0.0]
本稿では,フィードフォワードReLUネットワークの一般化誤差に基づいたPAC型を提案する。
得られた境界はネットワークの深さに明示的に依存しない。
論文 参考訳(メタデータ) (2023-10-26T13:14:13Z) - Sparsity-aware generalization theory for deep neural networks [12.525959293825318]
本稿では、ディープフィードフォワードReLUネットワークの一般化を解析するための新しいアプローチを提案する。
空間性と一般化の基本的なトレードオフを示す。
論文 参考訳(メタデータ) (2023-07-01T20:59:05Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - Rethinking Skip Connection with Layer Normalization in Transformers and
ResNets [49.87919454950763]
スキップ接続は、ディープニューラルネットワークの性能を改善するために広く使われているテクニックである。
本研究では,スキップ接続の有効性におけるスケール要因について検討する。
論文 参考訳(メタデータ) (2021-05-15T11:44:49Z) - Implicit Under-Parameterization Inhibits Data-Efficient Deep
Reinforcement Learning [97.28695683236981]
さらなる勾配更新により、現在の値ネットワークの表現性が低下する。
AtariとGymのベンチマークでは、オフラインとオンラインのRL設定の両方でこの現象を実証する。
論文 参考訳(メタデータ) (2020-10-27T17:55:16Z) - Optimization Theory for ReLU Neural Networks Trained with Normalization
Layers [82.61117235807606]
ディープニューラルネットワークの成功は、部分的には正規化レイヤの使用によるものだ。
我々の分析は、正規化の導入がランドスケープをどのように変化させ、より高速なアクティベーションを実現するかを示している。
論文 参考訳(メタデータ) (2020-06-11T23:55:54Z) - AL2: Progressive Activation Loss for Learning General Representations in
Classification Neural Networks [12.14537824884951]
本稿では,トレーニング中のアクティベーションの規模を段階的に罰する新たな正規化手法を提案する。
本手法が一般化に与える影響をラベルランダム化試験と累積アブレーションを用いて解析した。
論文 参考訳(メタデータ) (2020-03-07T18:38:46Z) - Beyond Dropout: Feature Map Distortion to Regularize Deep Neural
Networks [107.77595511218429]
本稿では,ディープニューラルネットワークの中間層に関連する実験的なRademacher複雑性について検討する。
上記の問題に対処するための特徴歪み法(Disout)を提案する。
より高い試験性能を有するディープニューラルネットワークを作製するための特徴写像歪みの優位性を解析し、実証した。
論文 参考訳(メタデータ) (2020-02-23T13:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。