論文の概要: Filtered Batch Normalization
- arxiv url: http://arxiv.org/abs/2010.08251v1
- Date: Fri, 16 Oct 2020 08:56:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 19:55:44.186938
- Title: Filtered Batch Normalization
- Title(参考訳): フィルタバッチ正規化
- Authors: Andras Horvath, Jalal Al-afandi
- Abstract要約: ニューラルネットワークにおける異なる層の活性化はガウス分布に従うという一般的な仮定である。
本稿では、すべての層における活性化が必ずしもガウス分布に従わないことを示す。
これらのアクティベーションをフィルタリングすることで、トレーニング中のバッチ正規化に対して、より一貫性のある平均値と分散値を生成できることを示します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is a common assumption that the activation of different layers in neural
networks follow Gaussian distribution. This distribution can be transformed
using normalization techniques, such as batch-normalization, increasing
convergence speed and improving accuracy. In this paper we would like to
demonstrate, that activations do not necessarily follow Gaussian distribution
in all layers. Neurons in deeper layers are more selective and specific which
can result extremely large, out-of-distribution activations.
We will demonstrate that one can create more consistent mean and variance
values for batch normalization during training by filtering out these
activations which can further improve convergence speed and yield higher
validation accuracy.
- Abstract(参考訳): ニューラルネットワークにおける異なる層の活性化はガウス分布に従うという一般的な仮定である。
この分布は、バッチ正規化、収束速度の増大、精度の向上といった正規化技術を用いて変換することができる。
本稿では、すべての層における活性化が必ずしもガウス分布に従わないことを示す。
より深い層内のニューロンはより選択的で特異的であり、非常に大きな分布外活性化をもたらす。
これらのアクティベーションをフィルタリングすることで、トレーニング中にバッチ正規化に対して、より一貫性のある平均および分散値を作成できることを実証し、収束速度をさらに向上し、検証精度を高めることができることを示す。
関連論文リスト
- Unsupervised Adaptive Normalization [0.07499722271664146]
Unsupervised Adaptive Normalization (UAN)は、クラスタリングとディープニューラルネットワーク学習をシームレスに統合する革新的なアルゴリズムである。
UANは、対象タスクに適応することで古典的手法よりも優れており、分類やドメイン適応に有効である。
論文 参考訳(メタデータ) (2024-09-07T08:14:11Z) - Towards Training Without Depth Limits: Batch Normalization Without
Gradient Explosion [83.90492831583997]
バッチ正規化ネットワークは,信号伝搬特性を最適に保ちつつ,爆発的な勾配を回避することができることを示す。
線形アクティベーションとバッチ正規化を備えた多層パーセプトロン(MLP)を用いて,有界深度を実証する。
また、ある非線形活性化に対して同じ特性を経験的に達成する活性化整形法を設計する。
論文 参考訳(メタデータ) (2023-10-03T12:35:02Z) - The Implicit Bias of Batch Normalization in Linear Models and Two-layer
Linear Convolutional Neural Networks [117.93273337740442]
勾配勾配勾配は、exp(-Omega(log2 t))$収束率でトレーニングデータ上の一様マージン分類器に収束することを示す。
また、バッチ正規化はパッチワイドの均一なマージンに対して暗黙の偏りを持つことを示す。
論文 参考訳(メタデータ) (2023-06-20T16:58:00Z) - Distribution Mismatch Correction for Improved Robustness in Deep Neural
Networks [86.42889611784855]
正規化法は ノイズや入力の腐敗に関して 脆弱性を増大させる
本稿では,各層の活性化分布に適応する非教師なし非パラメトリック分布補正法を提案する。
実験により,提案手法は画像劣化の激しい影響を効果的に低減することを示した。
論文 参考訳(メタデータ) (2021-10-05T11:36:25Z) - Deriving Differential Target Propagation from Iterating Approximate
Inverses [91.3755431537592]
本稿では,各層が学習した逆数に依存するターゲット伝搬の特定の形態が,ガウス-ニュートン勾配に基づく近似最適化に対応する更新規則を導出することを示す。
そこで我々は,各層における局所的自動エンコーダに基づく反復計算について検討し,より正確な目標伝搬のインバージョンを実現する。
論文 参考訳(メタデータ) (2020-07-29T22:34:45Z) - Optimization Theory for ReLU Neural Networks Trained with Normalization
Layers [82.61117235807606]
ディープニューラルネットワークの成功は、部分的には正規化レイヤの使用によるものだ。
我々の分析は、正規化の導入がランドスケープをどのように変化させ、より高速なアクティベーションを実現するかを示している。
論文 参考訳(メタデータ) (2020-06-11T23:55:54Z) - Gaussianization Flows [113.79542218282282]
そこで本研究では,サンプル生成における効率のよい繰り返しと効率のよい逆変換を両立できる新しい型正規化フローモデルを提案する。
この保証された表現性のため、サンプル生成の効率を損なうことなく、マルチモーダルなターゲット分布をキャプチャできる。
論文 参考訳(メタデータ) (2020-03-04T08:15:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。