論文の概要: Gated Information Bottleneck for Generalization in Sequential
Environments
- arxiv url: http://arxiv.org/abs/2110.06057v1
- Date: Tue, 12 Oct 2021 14:58:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-13 13:11:49.546173
- Title: Gated Information Bottleneck for Generalization in Sequential
Environments
- Title(参考訳): シークエンシャル環境における一般化のためのGated Information Bottleneck
- Authors: Francesco Alesiani, Shujian Yu, Xi Yu
- Abstract要約: 深層ニューラルネットワークは、基礎となるデータ分布がトレーニングセットのそれと異なる場合、一般化が悪く、目に見えない環境に苦しむ。
ゲート情報ボトルネック(GIB)と呼ばれるニューラルネットワークに基づく新しいISBアプローチを提案する。
我々は、敵対的ロバスト性およびアウト・オブ・ディストリビューション検出において、他の一般的なニューラルネットワークベースのIBアプローチよりもGIBの方が優れていることを実証的に示す。
- 参考スコア(独自算出の注目度): 13.795129636387623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks suffer from poor generalization to unseen environments
when the underlying data distribution is different from that in the training
set. By learning minimum sufficient representations from training data, the
information bottleneck (IB) approach has demonstrated its effectiveness to
improve generalization in different AI applications. In this work, we propose a
new neural network-based IB approach, termed gated information bottleneck
(GIB), that dynamically drops spurious correlations and progressively selects
the most task-relevant features across different environments by a trainable
soft mask (on raw features). GIB enjoys a simple and tractable objective,
without any variational approximation or distributional assumption. We
empirically demonstrate the superiority of GIB over other popular neural
network-based IB approaches in adversarial robustness and out-of-distribution
(OOD) detection. Meanwhile, we also establish the connection between IB theory
and invariant causal representation learning, and observed that GIB
demonstrates appealing performance when different environments arrive
sequentially, a more practical scenario where invariant risk minimization (IRM)
fails. Code of GIB is available at https://github.com/falesiani/GIB
- Abstract(参考訳): 深層ニューラルネットワークは、基礎となるデータ分布がトレーニングセットのそれと異なる場合、一般化が悪く、目に見えない環境に苦しむ。
トレーニングデータから最小限の表現を学習することにより、情報ボトルネック(IB)アプローチは、異なるAIアプリケーションにおける一般化を改善する効果を実証した。
本研究では,スプリアス相関を動的に除去し,学習可能なソフトマスク(生特徴)を用いて,複数の環境にまたがるタスク関連機能を段階的に選択する,新たなニューラルネットワークベースのib手法であるgated information bottleneck(gib)を提案する。
GIBは、変分近似や分布的仮定なしに、単純で扱いやすい目的を享受する。
我々は、敵対的ロバスト性とアウト・オブ・ディストリビューション(OOD)検出において、他の一般的なニューラルネットワークベースのIBアプローチよりもGIBの方が優れていることを実証的に示す。
一方,ib理論と不変因果表現学習との関係も確立し,gibは異なる環境が連続的に到達すると魅力的な性能を示すこと,不変リスク最小化 (irm) が失敗するより実用的なシナリオであることを確認した。
GIBのコードはhttps://github.com/falesiani/GIBで公開されている。
関連論文リスト
- IENE: Identifying and Extrapolating the Node Environment for Out-of-Distribution Generalization on Graphs [10.087216264788097]
ノードレベルの環境識別と外挿技術に基づくグラフのOOD一般化手法であるIENEを提案する。
モデルが2つの粒度から不変性を同時に抽出する能力を強化し、一般化が向上する。
論文 参考訳(メタデータ) (2024-06-02T14:43:56Z) - IB-AdCSCNet:Adaptive Convolutional Sparse Coding Network Driven by Information Bottleneck [4.523653503622693]
IB-AdCSCNetは情報ボトルネック理論に基づくディープラーニングモデルである。
IB-AdCSCNetは、情報ボトルネックトレードオフ戦略をディープネットワークにシームレスに統合する。
CIFAR-10とCIFAR-100データセットの実験結果は、IB-AdCSCNetが深い残差畳み込みネットワークの性能にマッチするだけでなく、破損したデータを扱う際の性能も優れていることを示した。
論文 参考訳(メタデータ) (2024-05-23T05:35:57Z) - Graph Out-of-Distribution Generalization via Causal Intervention [69.70137479660113]
本稿では,ノードレベルの分散シフトの下で頑健なグラフニューラルネットワーク(GNN)をトレーニングするための,概念的に単純だが原則化されたアプローチを提案する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
本モデルでは,様々な分散シフトによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端の精度を最大27.4%向上させることができる。
論文 参考訳(メタデータ) (2024-02-18T07:49:22Z) - DRED: Zero-Shot Transfer in Reinforcement Learning via Data-Regularised Environment Design [11.922951794283168]
本研究では,RLエージェントのゼロショット一般化能力(ZSG)に,個々の環境インスタンスやレベルのサンプリングがどう影響するかを検討する。
基本層を共有する深いアクター・クリティカルなアーキテクチャでは, エージェントの内部表現と, 生成したトレーニングデータのトレーニングレベルとの相互情報を最小限に抑える。
既存のUED手法は,ZSG性能の低いトレーニング分布を著しくシフトできることがわかった。
オーバーフィッティングと分散シフトの両面を防止するため,データ正規化環境設計(D)を導入する。
論文 参考訳(メタデータ) (2024-02-05T19:47:45Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Handling Distribution Shifts on Graphs: An Invariance Perspective [78.31180235269035]
我々は、グラフ上のOOD問題を定式化し、新しい不変学習手法である探索・拡張リスク最小化(EERM)を開発する。
EERMは、複数の仮想環境からのリスクの分散を最大化するために、敵対的に訓練された複数のコンテキストエクスプローラーを利用する。
理論的に有効なOOD解の保証を示すことによって,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-02-05T02:31:01Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Learning a Domain-Agnostic Visual Representation for Autonomous Driving
via Contrastive Loss [25.798361683744684]
ドメイン認識コントラスト学習(Domain-Agnostic Contrastive Learning、DACL)は、2段階の非監視ドメイン適応フレームワークである。
提案手法は,従来の最新手法に比べ,単眼深度推定作業における性能向上を実現した。
論文 参考訳(メタデータ) (2021-03-10T07:06:03Z) - The Pitfalls of Simplicity Bias in Neural Networks [39.29115335858375]
Simplicity Bias (SB) は、単純なモデルを見つけるための標準的な訓練手順の傾向である。
我々は、単純さ、複数の予測特徴の正確な概念を取り入れたデータセットを提案し、実際のデータに基づいてトレーニングされたニューラルネットワークの非ロマンス性をキャプチャする。
論文 参考訳(メタデータ) (2020-06-13T20:15:26Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。