論文の概要: The Missing Invariance Principle Found -- the Reciprocal Twin of
Invariant Risk Minimization
- arxiv url: http://arxiv.org/abs/2205.14546v1
- Date: Sun, 29 May 2022 00:14:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 13:27:24.889316
- Title: The Missing Invariance Principle Found -- the Reciprocal Twin of
Invariant Risk Minimization
- Title(参考訳): 失われた不変性原理-不変リスク最小化の相互双対
- Authors: Dongsung Huh and Avinash Baidya
- Abstract要約: リスク最小化(IRM)では、オフ・オブ・ディストリビューション(OOD)データに悪影響を与える可能性がある。
我々はMRI-v1が十分な環境下で不変な予測器を保証できることを示す。
また、MRIはIRMを強く上回り、画像ベース問題においてほぼ最適OODを実現していることを示す。
- 参考スコア(独自算出の注目度): 7.6146285961466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models often generalize poorly to out-of-distribution (OOD)
data as a result of relying on features that are spuriously correlated with the
label during training. Recently, the technique of Invariant Risk Minimization
(IRM) was proposed to learn predictors that only use invariant features by
conserving the feature-conditioned class expectation $\mathbb{E}_e[y|f(x)]$
across environments. However, more recent studies have demonstrated that IRM
can fail in various task settings. Here, we identify a fundamental flaw of IRM
formulation that causes the failure. We then introduce a complementary notion
of invariance, MRI, that is based on conserving the class-conditioned feature
expectation $\mathbb{E}_e[f(x)|y]$ across environments, that corrects for the
flaw in IRM. Further, we introduce a simplified, practical version of the MRI
formulation called as MRI-v1. We note that this constraint is convex which
confers it with an advantage over the practical version of IRM, IRM-v1, which
imposes non-convex constraints. We prove that in a general linear problem
setting, MRI-v1 can guarantee invariant predictors given sufficient
environments. We also empirically demonstrate that MRI strongly out-performs
IRM and consistently achieves near-optimal OOD generalization in image-based
nonlinear problems.
- Abstract(参考訳): 機械学習モデルは、トレーニング中にラベルと散発的に相関する特徴に依存する結果、お粗末な分散(ood)データに一般化することが多い。
近年,特徴条件付きクラス期待値$\mathbb{e}_e[y|f(x)]$を環境全体に保存することにより,不変機能のみを使用する予測子を学習するために,irm(invariant risk minimization)手法が提案されている。
しかし、近年の研究では、ITMが様々なタスク設定で失敗する可能性が示されている。
ここでは, 故障の原因となるITMの定式化の根本的な欠陥を同定する。
次に、クラス条件付き特徴期待値である $\mathbb{E}_e[f(x)|y]$ を環境全体にわたって保存し、IRMの欠陥を補正する不変性MRIという相補的な概念を導入する。
また,MRI-v1 と呼ばれる,MRI の簡易な実用版も導入した。
この制約はconvexであり、irmの実用バージョンであるirm-v1よりも優れており、非凸制約を課している。
一般的な線形問題設定では、MRI-v1は十分な環境が与えられた不変予測器を保証できる。
また、画像ベース非線形問題においてMRIがIRMを強く上回り、ほぼ最適OOD一般化を実現することを実証的に実証した。
関連論文リスト
- Invariant Risk Minimization Is A Total Variation Model [3.000494957386027]
不変リスク最小化(英: Invariant risk minimization、IRM)とは、機械学習において、不変の機能を様々な環境に一般化する手法である。
IRMは本質的に学習リスクのL2$(TV-$ell$)に基づく総変動であることを示す。
本稿では,TV-$ell$モデルに基づく新しいIRMフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-02T15:34:14Z) - Diagnosing and Rectifying Fake OOD Invariance: A Restructured Causal
Approach [51.012396632595554]
不変表現学習(IRL)は、不変因果的特徴から環境から切り離されたラベルへの予測を促進する。
最近の理論的結果は、IRLによって回復されたいくつかの因果的特徴は、訓練環境ではドメイン不変のふりをするが、目に見えない領域では失敗する。
本研究では,RS-SCMに関する条件付き相互情報に基づく手法を開発し,その効果を巧みに補正する。
論文 参考訳(メタデータ) (2023-12-15T12:58:05Z) - On the Variance, Admissibility, and Stability of Empirical Risk
Minimization [80.26309576810844]
2乗損失を持つ経験的リスク最小化(ERM)は、極小最適誤差率に達する可能性がある。
軽微な仮定では、ERMの準最適性はばらつきよりも大きなバイアスによるものでなければならない。
また、我々の推定は、非ドンスカー類に対するCaponnetto と Rakhlin (2006) の主な結果を補完する ERM の安定性を示唆している。
論文 参考訳(メタデータ) (2023-05-29T15:25:48Z) - What Is Missing in IRM Training and Evaluation? Challenges and Solutions [41.56612265456626]
環境に依存しないデータ表現と予測を取得する手段として、不変リスク最小化(IRM)が注目されている。
近年の研究では、当初提案されたIRM最適化(IRM)の最適性は、実際は損なわれる可能性があることが判明している。
IRMのトレーニングと評価における3つの実践的限界を特定し,解決する。
論文 参考訳(メタデータ) (2023-03-04T07:06:24Z) - Probable Domain Generalization via Quantile Risk Minimization [90.15831047587302]
ドメインの一般化は、目に見えないテスト分布でうまく機能する予測子を求める。
我々はDGのための新しい確率的フレームワークを提案し、高い確率でよく動作する予測器を学習することを目指している。
論文 参考訳(メタデータ) (2022-07-20T14:41:09Z) - Meta-Learned Invariant Risk Minimization [12.6484257912092]
経験的リスク最小化(ERM)ベースの機械学習アルゴリズムは、アウト・オブ・ディストリビューション(OOD)から得られたデータに対する弱い一般化パフォーマンスに苦しんでいる。
本稿では,IRMのためのメタラーニングに基づく新しいアプローチを提案する。
IRMv1 や IRM のすべての変種よりも OOD の一般化性能が優れているだけでなく,安定性が向上した IRMv1 の弱点にも対処できることを示す。
論文 参考訳(メタデータ) (2021-03-24T02:52:48Z) - Bayesian Uncertainty Estimation of Learned Variational MRI
Reconstruction [63.202627467245584]
我々は,モデル不連続な不確かさを定量化するベイズ変分フレームワークを提案する。
提案手法はMRIのアンダーサンプを用いた再建術の術後成績を示す。
論文 参考訳(メタデータ) (2021-02-12T18:08:14Z) - Does Invariant Risk Minimization Capture Invariance? [23.399091822468407]
我々は、Arjovskyらの不変リスク最小化(IRM)の定式化を示す。
自然」不変性を捕捉できないことがある。
これは新しい環境の一般化を悪化させる可能性がある。
論文 参考訳(メタデータ) (2021-01-04T18:02:45Z) - Empirical or Invariant Risk Minimization? A Sample Complexity
Perspective [49.43806345820883]
In-variant risk generalization (IRM) が広く採用されている経験的リスク最小化(ERM)フレームワークよりも好まれるかどうかは不明である。
データ生成機構の種類によって、2つのアプローチは、非常に異なる有限サンプルと振舞いを持つ可能性がある。
さらに、OOD溶液からの距離に関して、異なる要因(環境の数、モデルの複雑さ、およびIRMのペナルティ重量)がIRMのサンプルの複雑さにどのように影響するかについても検討する。
論文 参考訳(メタデータ) (2020-10-30T17:55:30Z) - The Risks of Invariant Risk Minimization [52.7137956951533]
不変リスク最小化(Invariant Risk Minimization)は、データの深い不変性を学ぶという考え方に基づく目標である。
我々は、IRMの目的に基づく分類の最初の分析と、最近提案されたこれらの代替案について、かなり自然で一般的なモデルで分析する。
IRMは、テストデータがトレーニング分布と十分に類似していない限り、破滅的に失敗する可能性がある。
論文 参考訳(メタデータ) (2020-10-12T14:54:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。