論文の概要: Regularizing activations in neural networks via distribution matching
with the Wasserstein metric
- arxiv url: http://arxiv.org/abs/2002.05366v2
- Date: Mon, 27 Apr 2020 02:31:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 09:42:45.443452
- Title: Regularizing activations in neural networks via distribution matching
with the Wasserstein metric
- Title(参考訳): ワッサースタイン計量の分布マッチングによるニューラルネットワークの活性化の規則化
- Authors: Taejong Joo, Donggu Kang, Byunghoon Kim
- Abstract要約: 本稿では,標準正規分布に従う活性化を促す予測誤差関数正規化損失(PER)を提案する。
ランダムに1次元空間に活性化を投影し、投影された空間の正規化損失を計算する。
画像分類タスクと単語レベルの言語モデリングタスクについて,提案手法の評価を行った。
- 参考スコア(独自算出の注目度): 9.442063850095808
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Regularization and normalization have become indispensable components in
training deep neural networks, resulting in faster training and improved
generalization performance. We propose the projected error function
regularization loss (PER) that encourages activations to follow the standard
normal distribution. PER randomly projects activations onto one-dimensional
space and computes the regularization loss in the projected space. PER is
similar to the Pseudo-Huber loss in the projected space, thus taking advantage
of both $L^1$ and $L^2$ regularization losses. Besides, PER can capture the
interaction between hidden units by projection vector drawn from a unit sphere.
By doing so, PER minimizes the upper bound of the Wasserstein distance of order
one between an empirical distribution of activations and the standard normal
distribution. To the best of the authors' knowledge, this is the first work to
regularize activations via distribution matching in the probability
distribution space. We evaluate the proposed method on the image classification
task and the word-level language modeling task.
- Abstract(参考訳): 正規化と正規化はディープニューラルネットワークのトレーニングにおいて必須の要素となり、より高速なトレーニングと一般化性能の向上に繋がる。
本稿では,標準正規分布に従う活性化を促す予測誤差関数正規化損失(PER)を提案する。
per は1次元空間に活性化を投影し、射影空間の正規化損失を計算する。
PER は射影空間における Pseudo-Huber の損失と似ているため、$L^1$ と $L^2$ の正則化損失を利用する。
さらにPERは、ユニット球から引き出された射影ベクトルによって隠れたユニット間の相互作用をキャプチャすることができる。
これによりPERは、活性化の実証的な分布と標準正規分布の間の位数1のワッサーシュタイン距離の上限を最小化する。
著者の知る限りでは、これは確率分布空間における分布マッチングを通じて活性化を正規化する最初の仕事である。
画像分類タスクと単語レベル言語モデリングタスクにおける提案手法を評価した。
関連論文リスト
- Generative Conditional Distributions by Neural (Entropic) Optimal Transport [12.152228552335798]
本稿では,条件分布の生成モデル学習を目的とした,ニューラルエントロピー最適輸送手法を提案する。
提案手法は,2つのニューラルネットワークのミニマックストレーニングに依存する。
実世界のデータセットを用いた実験では,現状条件分布学習法と比較して,アルゴリズムの有効性が示された。
論文 参考訳(メタデータ) (2024-06-04T13:45:35Z) - Training normalizing flows with computationally intensive target
probability distributions [0.018416014644193065]
本稿では,REINFORCEアルゴリズムに基づく流れの正規化のための推定器を提案する。
ウォールタイムでは最大10倍高速で、最大30%のメモリを必要とする。
論文 参考訳(メタデータ) (2023-08-25T10:40:46Z) - Normalizing flow sampling with Langevin dynamics in the latent space [12.91637880428221]
正規化フロー(NF)は、連続生成器を使用して、単純な潜伏分布(例えばガウス分布)をトレーニングデータセットに関連する経験的対象分布にマッピングする。
標準NFは可微分写像を実装しているため、複雑な分布を対象とする場合、病理学的挙動に悩まされることがある。
本稿では,マルコフ連鎖モンテカルロアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-20T09:31:35Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Robust Estimation for Nonparametric Families via Generative Adversarial
Networks [92.64483100338724]
我々は,高次元ロバストな統計問題を解くためにGAN(Generative Adversarial Networks)を設計するためのフレームワークを提供する。
我々の研究は、これらをロバスト平均推定、第二モーメント推定、ロバスト線形回帰に拡張する。
技術面では、提案したGAN損失は、スムーズで一般化されたコルモゴロフ-スミルノフ距離と見なすことができる。
論文 参考訳(メタデータ) (2022-02-02T20:11:33Z) - Distribution Mismatch Correction for Improved Robustness in Deep Neural
Networks [86.42889611784855]
正規化法は ノイズや入力の腐敗に関して 脆弱性を増大させる
本稿では,各層の活性化分布に適応する非教師なし非パラメトリック分布補正法を提案する。
実験により,提案手法は画像劣化の激しい影響を効果的に低減することを示した。
論文 参考訳(メタデータ) (2021-10-05T11:36:25Z) - KL Guided Domain Adaptation [88.19298405363452]
ドメイン適応は重要な問題であり、現実世界のアプリケーションにしばしば必要である。
ドメイン適応文学における一般的なアプローチは、ソースとターゲットドメインに同じ分布を持つ入力の表現を学ぶことである。
確率的表現ネットワークにより、KL項はミニバッチサンプルにより効率的に推定できることを示す。
論文 参考訳(メタデータ) (2021-06-14T22:24:23Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Unifying supervised learning and VAEs -- coverage, systematics and
goodness-of-fit in normalizing-flow based neural network models for
astro-particle reconstructions [0.0]
統計的不確実性、包括性、体系的不確実性、あるいは適度な尺度はしばしば計算されない。
データとラベルの共分散のKL分割の目的は、教師付き学習と変分オートエンコーダの統合を可能にすることを示す。
本稿では,特定の「基本順序」輪郭の数値積分を伴わずにカバレッジ確率を計算する方法について論じる。
論文 参考訳(メタデータ) (2020-08-13T11:28:57Z) - Log-Likelihood Ratio Minimizing Flows: Towards Robust and Quantifiable
Neural Distribution Alignment [52.02794488304448]
そこで本研究では,対数様比統計量と正規化フローに基づく新しい分布アライメント手法を提案する。
入力領域の局所構造を保存する領域アライメントにおいて,結果の最小化を実験的に検証する。
論文 参考訳(メタデータ) (2020-03-26T22:10:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。