論文の概要: The Variational InfoMax Learning Objective
- arxiv url: http://arxiv.org/abs/2003.03524v1
- Date: Sat, 7 Mar 2020 07:14:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 19:32:00.464201
- Title: The Variational InfoMax Learning Objective
- Title(参考訳): 変分的インフォマックス学習目標
- Authors: Vincenzo Crescimanna, Bruce Graham
- Abstract要約: この原稿では、2つの目的がInfoMaxと実際に等価であることを示し、データとラベルの間の情報を最大化する。
VIBに対するVIMの理論的改善は、計算実験によって強調される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian Inference and Information Bottleneck are the two most popular
objectives for neural networks, but they can be optimised only via a
variational lower bound: the Variational Information Bottleneck (VIB). In this
manuscript we show that the two objectives are actually equivalent to the
InfoMax: maximise the information between the data and the labels. The InfoMax
representation of the two objectives is not relevant only per se, since it
helps to understand the role of the network capacity, but also because it
allows us to derive a variational objective, the Variational InfoMax (VIM),
that maximises them directly without resorting to any lower bound. The
theoretical improvement of VIM over VIB is highlighted by the computational
experiments, where the model trained by VIM improves the VIB model in three
different tasks: accuracy, robustness to noise and representation quality.
- Abstract(参考訳): Bayesian Inference と Information Bottleneck は、ニューラルネットワークの最も一般的な2つの目的であるが、変分情報ボトルネック (VIB) という変分情報境界によってのみ最適化できる。
この原稿では、2つの目的がInfoMaxと実際に等価であることを示し、データとラベルの間の情報を最大化する。
2つの目的のInfoMax表現は、ネットワークキャパシティの役割を理解するのに役立つだけでなく、より低いバウンダリに頼らずにそれらを直接最大化する変分InfoMax(VIM)を導出できるため、それ自体は関係がない。
VIBに対するVIMの理論的改善は、VIMによって訓練されたモデルは、精度、ノイズに対する堅牢性、表現品質の3つの異なるタスクでVIBモデルを改善する計算実験によって強調される。
関連論文リスト
- Concept-skill Transferability-based Data Selection for Large Vision-Language Models [56.0725292404808]
視覚言語モデルを学習するための効果的でスケーラブルなデータ選択手法であるCOINCIDEを紹介する。
我々は,目標LVLMに必要な概念スキル構成を識別する小型モデルからの内部アクティベーションを用いて,トレーニングデータをクラスタ化する。
実験により、COINCIDEは8つの強いベースラインに対して、優れた性能とデータ選択効率を実現することが示された。
論文 参考訳(メタデータ) (2024-06-16T16:15:20Z) - Many-Objective Evolutionary Influence Maximization: Balancing Spread, Budget, Fairness, and Time [3.195234044113248]
インフルエンス・最大化(IM)問題は、情報伝達を最大限に広めることのできるグラフ内のノードの集合を見つけ出そうとする。
この問題はNPハードであることが知られており、通常は第2の目的を最適化する影響(スプレッド)を最大化して研究される。
本研究では,シードセットサイズの影響と最小化に基づいて,予算の公平性,コミュニティ,時間といったIM固有の目的関数を最適化した最初のケーススタディを提案する。
論文 参考訳(メタデータ) (2024-03-27T16:54:45Z) - Learning with MISELBO: The Mixture Cookbook [62.75516608080322]
本稿では,VampPriorとPixelCNNデコーダネットワークを用いて,フローベース階層型変分オートエンコーダ(VAE)の正規化のための変分近似を初めて提案する。
我々は、この協調行動について、VIと適応的重要度サンプリングの新たな関係を描いて説明する。
我々は、MNISTおよびFashionMNISTデータセット上の負のログ類似度の観点から、VAEアーキテクチャの最先端結果を得る。
論文 参考訳(メタデータ) (2022-09-30T15:01:35Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z) - Variational Mutual Information Maximization Framework for VAE Latent
Codes with Continuous and Discrete Priors [5.317548969642376]
変分オートエンコーダ(VAE)は、複雑なデータの有向潜在変数モデルを学習するためのスケーラブルな方法である。
本稿では,VAEのための変分相互情報最大化フレームワークを提案し,この問題に対処する。
論文 参考訳(メタデータ) (2020-06-02T09:05:51Z) - VMI-VAE: Variational Mutual Information Maximization Framework for VAE
With Discrete and Continuous Priors [5.317548969642376]
変分オートエンコーダは、複雑なデータの潜在変数モデルを学習するためのスケーラブルな方法である。
本稿では,VAEのための変分相互情報最大化フレームワークを提案し,この問題に対処する。
論文 参考訳(メタデータ) (2020-05-28T12:44:23Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z) - On the Difference Between the Information Bottleneck and the Deep
Information Bottleneck [81.89141311906552]
本稿では,Deep Variational Information Bottleneckとその導出に必要な仮定について再考する。
後者のマルコフ連鎖のみを満たすべき$I(T;Y)$に対して下界を最適化することで、この制限を回避する方法を示す。
論文 参考訳(メタデータ) (2019-12-31T18:31:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。