論文の概要: The Role of Mutual Information in Variational Classifiers
- arxiv url: http://arxiv.org/abs/2010.11642v3
- Date: Thu, 13 Apr 2023 11:53:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 18:17:16.710127
- Title: The Role of Mutual Information in Variational Classifiers
- Title(参考訳): 変分分類器における相互情報の役割
- Authors: Matias Vera, Leonardo Rey Vega and Pablo Piantanida
- Abstract要約: クロスエントロピー損失を訓練した符号化に依存する分類器の一般化誤差について検討する。
我々は、一般化誤差が相互情報によって境界付けられた状態が存在することを示す一般化誤差に境界を導出する。
- 参考スコア(独自算出の注目度): 47.10478919049443
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Overfitting data is a well-known phenomenon related with the generation of a
model that mimics too closely (or exactly) a particular instance of data, and
may therefore fail to predict future observations reliably. In practice, this
behaviour is controlled by various--sometimes heuristics--regularization
techniques, which are motivated by developing upper bounds to the
generalization error. In this work, we study the generalization error of
classifiers relying on stochastic encodings trained on the cross-entropy loss,
which is often used in deep learning for classification problems. We derive
bounds to the generalization error showing that there exists a regime where the
generalization error is bounded by the mutual information between input
features and the corresponding representations in the latent space, which are
randomly generated according to the encoding distribution. Our bounds provide
an information-theoretic understanding of generalization in the so-called class
of variational classifiers, which are regularized by a Kullback-Leibler (KL)
divergence term. These results give theoretical grounds for the highly popular
KL term in variational inference methods that was already recognized to act
effectively as a regularization penalty. We further observe connections with
well studied notions such as Variational Autoencoders, Information Dropout,
Information Bottleneck and Boltzmann Machines. Finally, we perform numerical
experiments on MNIST and CIFAR datasets and show that mutual information is
indeed highly representative of the behaviour of the generalization error.
- Abstract(参考訳): データのオーバーフィッティング(Overfitting)は、データの特定のインスタンスをあまりに正確に模倣し、将来の観測を確実に予測できないモデルの生成に関連するよく知られた現象である。
実際には、この振る舞いは、一般化誤差の上限を発達させることによって動機付けられた様々なヒューリスティック・レギュライゼーション技術によって制御される。
本研究では,クロスエントロピー損失を学習した確率的符号化に基づく分類器の一般化誤差について検討する。
符号化分布に応じてランダムに生成される潜在空間における入力特徴と対応する表現の相互情報によって一般化誤差が境界付けられた状態が存在することを示す一般化誤差に境界を導出する。
我々の境界は、kullback-leibler(kl)分岐項によって正規化されるいわゆる変分分類器のクラスにおける一般化に関する情報理論的な理解を提供する。
これらの結果は、既に正則化ペナルティとして効果的に作用することが認められた変分推論法において、非常に人気のあるKL項の理論的根拠を与える。
さらに,変分オートエンコーダや情報ドロップアウト,情報ボトルネック,ボルツマンマシンなど,よく研究された概念との関係を観察する。
最後に,mnist と cifar データセットの数値実験を行い,相互情報が一般化誤差の挙動を極めてよく表していることを示す。
関連論文リスト
- Enhancing Anomaly Detection Generalization through Knowledge Exposure: The Dual Effects of Augmentation [9.740752855568202]
異常検出では、標準から逸脱し、頻繁に発生するデータセット内のインスタンスを識別する。
現在のベンチマークでは、実際のシナリオと一致しない通常のデータの多様性の低い方法を好む傾向にある。
本稿では,概念力学の理解に外部知識を統合した新しいテストプロトコルと知識公開(KE)手法を提案する。
論文 参考訳(メタデータ) (2024-06-15T12:37:36Z) - Learning Divergence Fields for Shift-Robust Graph Representations [73.11818515795761]
本研究では,相互依存データに対する問題に対して,学習可能な分散場を持つ幾何学的拡散モデルを提案する。
因果推論によって新たな学習目標が導出され、ドメイン間で無神経な相互依存の一般化可能なパターンを学習するためのモデルが導出される。
論文 参考訳(メタデータ) (2024-06-07T14:29:21Z) - Class-wise Generalization Error: an Information-Theoretic Analysis [22.877440350595222]
本稿では,各クラスの一般化性能を定量化するクラス一般化誤差について検討する。
我々は、異なるニューラルネットワークにおける提案した境界を実験的に検証し、それらが複雑なクラス一般化エラーの振る舞いを正確に捉えていることを示す。
論文 参考訳(メタデータ) (2024-01-05T17:05:14Z) - GIT: Detecting Uncertainty, Out-Of-Distribution and Adversarial Samples
using Gradients and Invariance Transformations [77.34726150561087]
本稿では,ディープニューラルネットワークにおける一般化誤差検出のための総合的アプローチを提案する。
GITは勾配情報と不変変換の利用を組み合わせる。
本実験は,各種ネットワークアーキテクチャの最先端技術と比較して,GITの優れた性能を示すものである。
論文 参考訳(メタデータ) (2023-07-05T22:04:38Z) - FedGen: Generalizable Federated Learning for Sequential Data [8.784435748969806]
多くの実世界の分散環境では、バイアスとデータサンプリングの問題により、急激な相関が存在する。
我々はFedGenという汎用的なフェデレーション学習フレームワークを提案し、クライアントが素早い特徴と不変な特徴を識別および識別できるようにする。
FedGenは、より優れた一般化を実現し、現在のフェデレーション学習手法の精度を24%以上上回るモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-11-03T15:48:14Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - ER: Equivariance Regularizer for Knowledge Graph Completion [107.51609402963072]
我々は、新しい正規化器、すなわち等分散正規化器(ER)を提案する。
ERは、頭と尾のエンティティ間の意味的等価性を利用することで、モデルの一般化能力を高めることができる。
実験結果から,最先端関係予測法よりも明確かつ実質的な改善が示された。
論文 参考訳(メタデータ) (2022-06-24T08:18:05Z) - Fluctuations, Bias, Variance & Ensemble of Learners: Exact Asymptotics
for Convex Losses in High-Dimension [25.711297863946193]
我々は、異なる、しかし相関のある特徴に基づいて訓練された一般化線形モデルの集合における揺らぎの研究の理論を開発する。
一般凸損失と高次元限界における正則化のための経験的リスク最小化器の結合分布の完全な記述を提供する。
論文 参考訳(メタデータ) (2022-01-31T17:44:58Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Generalisation error in learning with random features and the hidden
manifold model [23.71637173968353]
合成データセットの一般線形回帰と分類について検討した。
我々は,高次元構造を考察し,統計物理学からのレプリカ法を用いる。
閾値をピークとしたロジスティック回帰のためのいわゆる二重降下挙動を得る方法を示す。
隠れ多様体モデルにより生成されたデータにおいて相関関係が果たす役割について論じる。
論文 参考訳(メタデータ) (2020-02-21T14:49:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。