論文の概要: Repeated Environment Inference for Invariant Learning
- arxiv url: http://arxiv.org/abs/2207.12876v1
- Date: Tue, 26 Jul 2022 13:07:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 13:12:59.294861
- Title: Repeated Environment Inference for Invariant Learning
- Title(参考訳): 不変学習のための繰り返し環境推論
- Authors: Aayush Mishra and Anqi Liu
- Abstract要約: ベイズ最適条件ラベル分布が異なる環境において同じである場合、不変表現の概念に焦点を当てる。
従来の作業は、不変リスク最小化(IRM)フレームワークからペナルティ項を最大化することで環境推論(EI)を行う。
本手法は, 合成データセットと実世界のデータセットの両方において, ベースラインよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 8.372465442144046
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We study the problem of invariant learning when the environment labels are
unknown. We focus on the invariant representation notion when the Bayes optimal
conditional label distribution is the same across different environments.
Previous work conducts Environment Inference (EI) by maximizing the penalty
term from Invariant Risk Minimization (IRM) framework. The EI step uses a
reference model which focuses on spurious correlations to efficiently reach a
good environment partition. However, it is not clear how to find such a
reference model. In this work, we propose to repeat the EI process and retrain
an ERM model on the \textit{majority} environment inferred by the previous EI
step. Under mild assumptions, we find that this iterative process helps learn a
representation capturing the spurious correlation better than the single step.
This results in better Environment Inference and better Invariant Learning. We
show that this method outperforms baselines on both synthetic and real-world
datasets.
- Abstract(参考訳): 環境ラベルが未知である場合の不変学習の問題について検討する。
ベイズ最適条件ラベル分布が異なる環境において同じである場合、不変表現の概念に焦点を当てる。
従来の作業は、不変リスク最小化(IRM)フレームワークからペナルティ項を最大化することで環境推論(EI)を行う。
EIステップは、良好な環境分割に効率的に到達するために、刺激的な相関に焦点を当てた参照モデルを使用する。
しかし、どうやってそのような参照モデルを見つけるかは明らかではない。
本稿では、EIプロセスの繰り返しと、前回のEIステップで推定されるtextit{majority}環境におけるERMモデルの再学習を提案する。
穏やかな仮定の下で、この反復的なプロセスは、単一のステップよりもスプリアスな相関を捉える表現を学ぶのに役立ちます。
これにより、環境推論が向上し、不変学習が向上する。
本手法は,合成データと実世界のデータセットのベースラインを上回っていることを示す。
関連論文リスト
- No Regrets: Investigating and Improving Regret Approximations for Curriculum Discovery [53.08822154199948]
非教師なし環境設計(UED)手法は、エージェントがイン・オブ・アウト・ディストリビューションタスクに対して堅牢になることを約束する適応的カリキュラムとして近年注目を集めている。
本研究は,既存のUEDメソッドがいかにトレーニング環境を選択するかを検討する。
本研究では,学習性の高いシナリオを直接訓練する手法を開発した。
論文 参考訳(メタデータ) (2024-08-27T14:31:54Z) - Invariant Correlation of Representation with Label [30.82552387894663]
ICorr(textbfInvariant textbfCorrelationの略)は、ノイズの多い環境でのドメインの一般化の課題を克服する新しい手法である。
我々は、様々なノイズデータセット上で、他の領域一般化手法と比較することにより、ICorrの有効性を実証的に実証した。
論文 参考訳(メタデータ) (2024-07-01T19:27:28Z) - Graph Invariant Learning with Subgraph Co-mixup for Out-Of-Distribution
Generalization [51.913685334368104]
本稿では,変分パターンと変分パターンの混合戦略に基づく新しいグラフ不変学習手法を提案する。
本手法は, 各種分布シフト下での最先端性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-12-18T07:26:56Z) - Winning Prize Comes from Losing Tickets: Improve Invariant Learning by
Exploring Variant Parameters for Out-of-Distribution Generalization [76.27711056914168]
Out-of-Distribution (OOD) 一般化は、分散固有の特徴に適合することなく、様々な環境によく適応する堅牢なモデルを学ぶことを目的としている。
LTH(Lottery Ticket hypothesis)に基づく最近の研究は、学習目標を最小化し、タスクに重要なパラメータのいくつかを見つけることでこの問題に対処している。
Invariant Learning (EVIL) における変数探索手法を提案する。
論文 参考訳(メタデータ) (2023-10-25T06:10:57Z) - Exploiting Counter-Examples for Active Learning with Partial labels [45.665996618836516]
本稿では, 部分ラベルを用いたemphactive learning(ALPL)の新たな課題について検討する。
この設定では、オラクルはクエリサンプルに部分的なラベルを付加し、必要な正確なラベル付けプロセスからオラクルを緩和する。
我々は,このパターンを直接学習するために,シンプルだが効果的なWorseNetを提案する。
論文 参考訳(メタデータ) (2023-07-14T15:41:53Z) - Decorr: Environment Partitioning for Invariant Learning and OOD Generalization [10.799855921851332]
不変学習手法は、複数の環境にまたがる一貫した予測器を特定することを目的としている。
データに固有の環境がなければ、実践者はそれらを手動で定義しなければならない。
この環境分割は不変学習の有効性に影響を及ぼすが、いまだ過小評価されていない。
本稿では,低相関データサブセットを分離することで,データセットを複数の環境に分割することを提案する。
論文 参考訳(メタデータ) (2022-11-18T06:49:35Z) - Env-Aware Anomaly Detection: Ignore Style Changes, Stay True to Content! [6.633524353120579]
分散シフトシナリオにおける教師なし異常検出タスクの形式化とベンチマークを導入する。
基本的経験的リスク最小化 (ERM) と比較した場合, 環境に配慮した手法が良好な性能を発揮することを実証的に検証する。
本研究では,学習時の環境ラベルを考慮し,ベースラインスコアを8.7%改善するコントラッシブ手法の正のサンプルを生成する拡張について提案する。
論文 参考訳(メタデータ) (2022-10-06T17:52:33Z) - A Relational Intervention Approach for Unsupervised Dynamics
Generalization in Model-Based Reinforcement Learning [113.75991721607174]
同じ環境に属する2つの推定$hatz_i, hatz_j$の確率を推定するための介入予測モジュールを導入する。
提案手法により推定される$hatZ$は,従来の方法よりも冗長な情報が少ないことを実証的に示す。
論文 参考訳(メタデータ) (2022-06-09T15:01:36Z) - Predict then Interpolate: A Simple Algorithm to Learn Stable Classifiers [59.06169363181417]
Predict then Interpolate (PI) は環境全体にわたって安定な相関関係を学習するためのアルゴリズムである。
正しい予測と間違った予測の分布を補間することにより、不安定な相関が消えるオラクル分布を明らかにすることができる。
論文 参考訳(メタデータ) (2021-05-26T15:37:48Z) - Environment Inference for Invariant Learning [9.63004099102596]
環境推論を組み込んだドメイン不変学習フレームワークであるEIILを提案する。
EIILは環境ラベルを使わずにCMNISTベンチマークの不変学習法より優れていることを示す。
また、EIILとアルゴリズムフェアネスの接続を確立することにより、公平な予測問題において、EIILは精度とキャリブレーションを改善することができる。
論文 参考訳(メタデータ) (2020-10-14T17:11:46Z) - Strictly Batch Imitation Learning by Energy-based Distribution Matching [104.33286163090179]
すなわち、強化信号へのアクセスがなく、遷移力学の知識がなく、環境とのさらなる相互作用もない。
1つの解決策は、既存のアルゴリズムをオフライン環境で動作させるために、見習いの学習に適合させることである。
しかし、このようなアプローチは、政治外の評価やオフラインモデルの推定に大きく依存しており、間接的で非効率である可能性がある。
優れたソリューションは、ポリシーを明示的にパラメータ化し、ロールアウトダイナミクスから暗黙的に学習し、完全にオフラインで運用できるべきだ、と私たちは主張する。
論文 参考訳(メタデータ) (2020-06-25T03:27:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。