論文の概要: Generalized Information Bottleneck for Gaussian Variables
- arxiv url: http://arxiv.org/abs/2303.17762v1
- Date: Fri, 31 Mar 2023 01:38:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 15:38:21.627305
- Title: Generalized Information Bottleneck for Gaussian Variables
- Title(参考訳): ガウス変数に対する一般化情報ボトルネック
- Authors: Vudtiwat Ngampruetikorn, David J. Schwab
- Abstract要約: ガウス相関変数の場合の正確な解析的 IB 解を導出する。
元のRenyiとJeffreys IBの問題は一般に異なる表現をもたらすが、構造的遷移は同じ臨界トレードオフパラメータで起こる。
- 参考スコア(独自算出の注目度): 6.700873164609009
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The information bottleneck (IB) method offers an attractive framework for
understanding representation learning, however its applications are often
limited by its computational intractability. Analytical characterization of the
IB method is not only of practical interest, but it can also lead to new
insights into learning phenomena. Here we consider a generalized IB problem, in
which the mutual information in the original IB method is replaced by
correlation measures based on Renyi and Jeffreys divergences. We derive an
exact analytical IB solution for the case of Gaussian correlated variables. Our
analysis reveals a series of structural transitions, similar to those
previously observed in the original IB case. We find further that although
solving the original, Renyi and Jeffreys IB problems yields different
representations in general, the structural transitions occur at the same
critical tradeoff parameters, and the Renyi and Jeffreys IB solutions perform
well under the original IB objective. Our results suggest that formulating the
IB method with alternative correlation measures could offer a strategy for
obtaining an approximate solution to the original IB problem.
- Abstract(参考訳): 情報ボトルネック(IB)法は、表現学習を理解するための魅力的なフレームワークを提供するが、その応用は計算の難易度によって制限されることが多い。
IB法の解析的特徴は、実際的な関心だけでなく、学習現象に対する新たな洞察につながる可能性がある。
ここでは、元のIB法における相互情報をRenyiとJeffreysの発散に基づく相関測度に置き換える一般化されたIB問題を考える。
ガウス相関変数の場合の正確な解析的 IB 解を導出する。
解析の結果,以前のIB症例と同様の一連の構造遷移が明らかとなった。
さらに, renyi と jeffreys ib の問題を解くと, 一般に異なる表現が得られるが, 構造遷移は同一の臨界トレードオフパラメータで発生し, renyi と jeffreys ib の解は元のib 目的の下でうまく機能することがわかった。
IB法を代替相関法で定式化することは,元のIB問題に対する近似解を得るための戦略となる可能性が示唆された。
関連論文リスト
- Elastic Information Bottleneck [34.90040361806197]
情報ボトルネックは表現学習における情報理論の原則である。
IB正則化器とDIB正則化器の間を補間する弾性情報ボトルネック(EIB)を提案する。
シミュレーションと実データ実験により、IB は IB や DIB よりも優れたドメイン適応結果が得られることが示された。
論文 参考訳(メタデータ) (2023-11-07T12:53:55Z) - A Robustness Analysis of Blind Source Separation [91.3755431537592]
ブラインドソース分離(BSS)は、変換$f$が可逆であるが未知であるという条件の下で、その混合である$X=f(S)$から観測されていない信号を復元することを目的としている。
このような違反を分析し、その影響を$X$から$S$のブラインドリカバリに与える影響を定量化するための一般的なフレームワークを提案する。
定義された構造的仮定からの偏差に対する一般的なBSS溶出は、明示的な連続性保証という形で、利益的に分析可能であることを示す。
論文 参考訳(メタデータ) (2023-03-17T16:30:51Z) - GEC: A Unified Framework for Interactive Decision Making in MDP, POMDP,
and Beyond [101.5329678997916]
対話型意思決定の一般的な枠組みの下で, サンプル高能率強化学習(RL)について検討した。
本稿では,探索とエクスプロイトの基本的なトレードオフを特徴付ける,新しい複雑性尺度である一般化エルダー係数(GEC)を提案する。
低 GEC の RL 問題は非常にリッチなクラスであり、これは低ベルマン楕円体次元問題、双線型クラス、低証人ランク問題、PO-双線型クラス、一般化正規PSR を仮定する。
論文 参考訳(メタデータ) (2022-11-03T16:42:40Z) - Meta-Causal Feature Learning for Out-of-Distribution Generalization [71.38239243414091]
本稿では,協調タスク生成モジュール (BTG) とメタ因果特徴学習モジュール (MCFL) を含む,バランス付きメタ因果学習器 (BMCL) を提案する。
BMCLは、分類のためのクラス不変の視覚領域を効果的に識別し、最先端の手法の性能を向上させるための一般的なフレームワークとして機能する。
論文 参考訳(メタデータ) (2022-08-22T09:07:02Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - Gated Information Bottleneck for Generalization in Sequential
Environments [13.795129636387623]
深層ニューラルネットワークは、基礎となるデータ分布がトレーニングセットのそれと異なる場合、一般化が悪く、目に見えない環境に苦しむ。
ゲート情報ボトルネック(GIB)と呼ばれるニューラルネットワークに基づく新しいISBアプローチを提案する。
我々は、敵対的ロバスト性およびアウト・オブ・ディストリビューション検出において、他の一般的なニューラルネットワークベースのIBアプローチよりもGIBの方が優れていることを実証的に示す。
論文 参考訳(メタデータ) (2021-10-12T14:58:38Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - From Canonical Correlation Analysis to Self-supervised Graph Neural
Networks [99.44881722969046]
本稿では,グラフデータを用いた自己教師付き表現学習のための概念的単純かつ効果的なモデルを提案する。
古典的カノニカル相関解析にインスパイアされた,革新的な特徴レベルの目的を最適化する。
提案手法は、7つの公開グラフデータセット上で競合的に動作する。
論文 参考訳(メタデータ) (2021-06-23T15:55:47Z) - Perturbation Theory for the Information Bottleneck [6.117084972237769]
情報ボトルネック (IB) は、データから関連情報を抽出する手法である。
IB問題の非線形性は、一般に計算コストが高く解析的に難解である。
IB法に対する摂動理論を導出し,学習開始の完全な特徴を報告した。
論文 参考訳(メタデータ) (2021-05-28T16:59:01Z) - Farewell to Mutual Information: Variational Distillation for Cross-Modal
Person Re-Identification [41.02729491273057]
Information Bottleneck (IB)は、表現学習のための情報理論の原則を提供する。
我々は、スケーラブルで柔軟で分析的なソリューションを提供する新しい戦略、可変自己蒸留(VSD)を提示します。
また、Variational Cross-Distillation (VCD) と Variational Mutual-Learning (VML) の2つの戦略を紹介します。
論文 参考訳(メタデータ) (2021-04-07T02:19:41Z) - The Dual Information Bottleneck [1.6559345531428509]
Information Bottleneck (IB) フレームワークは、精度と複雑さのバランスをとるための原則化されたアプローチを用いて得られる最適な表現の一般的な特徴付けである。
IBの欠点を解消する新しいフレームワークであるDual Information Bottleneck(DualIB)を提案する。
論文 参考訳(メタデータ) (2020-06-08T14:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。