論文の概要: Invariant Learning with Annotation-free Environments
- arxiv url: http://arxiv.org/abs/2504.15686v1
- Date: Tue, 22 Apr 2025 08:10:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 21:38:12.613728
- Title: Invariant Learning with Annotation-free Environments
- Title(参考訳): アノテーションのない環境を用いた不変学習
- Authors: Phuong Quynh Le, Christin Seifert, Jörg Schlötterer,
- Abstract要約: 不変学習は、経験的リスク最小化(ERM)と比較してドメインの一般化を改善するための有望なアプローチである
提案手法は,明示的な環境ラベルを必要とする手法に匹敵する性能と,アノテーションのない手法に匹敵する性能を達成し,ColoredMNISTベンチマークに予備的の有効性を示す。
- 参考スコア(独自算出の注目度): 2.592470112714595
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Invariant learning is a promising approach to improve domain generalization compared to Empirical Risk Minimization (ERM). However, most invariant learning methods rely on the assumption that training examples are pre-partitioned into different known environments. We instead infer environments without the need for additional annotations, motivated by observations of the properties within the representation space of a trained ERM model. We show the preliminary effectiveness of our approach on the ColoredMNIST benchmark, achieving performance comparable to methods requiring explicit environment labels and on par with an annotation-free method that poses strong restrictions on the ERM reference model.
- Abstract(参考訳): 不変学習は、経験的リスク最小化(ERM)と比較してドメインの一般化を改善するための有望なアプローチである。
しかし、ほとんどの不変学習手法は、トレーニング例が既知の異なる環境に事前分割されているという仮定に依存している。
代わりに、トレーニングされたERMモデルの表現空間内の特性を観察することで、追加のアノテーションを必要とせずに環境を推論する。
提案手法は,明示的な環境ラベルを必要とする手法に匹敵する性能を達成し,ERM参照モデルに強い制約を与えるアノテーションのない手法に匹敵する性能を示す。
関連論文リスト
- Invariant Correlation of Representation with Label: Enhancing Domain Generalization in Noisy Environments [30.82552387894663]
不変リスク最小化(IRM)は、複数の環境において不変な特徴表現をトレーニングすることで、ドメインの一般化の課題に対処することを目的としている。
ICorr(不変相関の略)は、ノイズの多い設定で上記の課題を克服するために設計された新しいアプローチである。
我々は、様々なノイズデータセット上で、他の領域一般化手法と比較することにより、ICorrの有効性を実証的に実証した。
論文 参考訳(メタデータ) (2024-07-01T19:27:28Z) - A robust assessment for invariant representations [10.949263264442349]
IRMに基づく手法に特化して,不変性能を評価する新しい手法を提案する。
我々は、確率比を用いて、異なる環境にわたる不変予測器の条件予測の間の橋渡しを確立する。
提案する基準は、不変性能を評価するための堅牢な基盤を提供する。
論文 参考訳(メタデータ) (2024-04-07T20:05:49Z) - Ensemble Kalman Filtering Meets Gaussian Process SSM for Non-Mean-Field and Online Inference [47.460898983429374]
我々は,非平均場(NMF)変動推定フレームワークにアンサンブルカルマンフィルタ(EnKF)を導入し,潜在状態の後方分布を近似する。
EnKFとGPSSMのこの新しい結婚は、変分分布の学習における広範なパラメータ化の必要性をなくすだけでなく、エビデンスの下限(ELBO)の解釈可能でクローズドな近似を可能にする。
得られたEnKF支援オンラインアルゴリズムは、データ適合精度を確保しつつ、モデル正規化を組み込んで過度適合を緩和し、目的関数を具現化する。
論文 参考訳(メタデータ) (2023-12-10T15:22:30Z) - Continual Invariant Risk Minimization [46.051656238770086]
経験的リスク最小化は、学習モデルが不変な特徴表現をキャプチャしない場合、目に見えない環境での一般化の振る舞いを損なう可能性がある。
不変リスク最小化(IRM)は環境不変表現を発見するための最近の提案である。
論文 参考訳(メタデータ) (2023-10-21T11:44:47Z) - Learning Optimal Features via Partial Invariance [18.552839725370383]
不変リスク最小化(IRM)は、複数の環境から堅牢なモデルを学ぶことを目的とした一般的なフレームワークである。
IRMが予測器を過度に抑制できることを示し、これを補うために、$textitpartial invariance$を介して緩和を提案する。
線形設定と、言語と画像データの両方のタスクにおけるディープニューラルネットワークの両方で実施されたいくつかの実験により、結論の検証が可能になった。
論文 参考訳(メタデータ) (2023-01-28T02:48:14Z) - Decorr: Environment Partitioning for Invariant Learning and OOD Generalization [10.799855921851332]
不変学習手法は、複数の環境にまたがる一貫した予測器を特定することを目的としている。
データに固有の環境がなければ、実践者はそれらを手動で定義しなければならない。
この環境分割は不変学習の有効性に影響を及ぼすが、いまだ過小評価されていない。
本稿では,低相関データサブセットを分離することで,データセットを複数の環境に分割することを提案する。
論文 参考訳(メタデータ) (2022-11-18T06:49:35Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Environment Inference for Invariant Learning [9.63004099102596]
環境推論を組み込んだドメイン不変学習フレームワークであるEIILを提案する。
EIILは環境ラベルを使わずにCMNISTベンチマークの不変学習法より優れていることを示す。
また、EIILとアルゴリズムフェアネスの接続を確立することにより、公平な予測問題において、EIILは精度とキャリブレーションを改善することができる。
論文 参考訳(メタデータ) (2020-10-14T17:11:46Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Strictly Batch Imitation Learning by Energy-based Distribution Matching [104.33286163090179]
すなわち、強化信号へのアクセスがなく、遷移力学の知識がなく、環境とのさらなる相互作用もない。
1つの解決策は、既存のアルゴリズムをオフライン環境で動作させるために、見習いの学習に適合させることである。
しかし、このようなアプローチは、政治外の評価やオフラインモデルの推定に大きく依存しており、間接的で非効率である可能性がある。
優れたソリューションは、ポリシーを明示的にパラメータ化し、ロールアウトダイナミクスから暗黙的に学習し、完全にオフラインで運用できるべきだ、と私たちは主張する。
論文 参考訳(メタデータ) (2020-06-25T03:27:59Z) - Learning the Truth From Only One Side of the Story [58.65439277460011]
一般化線形モデルに焦点をあて、このサンプリングバイアスを調整しなければ、モデルは準最適に収束するか、あるいは最適解に収束しないかもしれないことを示す。
理論的保証を伴って適応的なアプローチを提案し、いくつかの既存手法を実証的に上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-08T18:20:28Z) - Invariant Causal Prediction for Block MDPs [106.63346115341862]
環境全体にわたる一般化は、実世界の課題への強化学習アルゴリズムの適用の成功に不可欠である。
本稿では,多環境環境における新しい観測を一般化するモデル不適合状態抽象化(MISA)を学習するための不変予測法を提案する。
論文 参考訳(メタデータ) (2020-03-12T21:03:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。