論文の概要: Mining Invariance from Nonlinear Multi-Environment Data: Binary Classification
- arxiv url: http://arxiv.org/abs/2404.15245v1
- Date: Tue, 23 Apr 2024 17:26:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-24 12:53:16.029768
- Title: Mining Invariance from Nonlinear Multi-Environment Data: Binary Classification
- Title(参考訳): 非線形マルチ環境データからのマイニング不変性:バイナリ分類
- Authors: Austin Goddard, Kang Du, Yu Xiang,
- Abstract要約: 本稿では,一般的な非線形データ生成機構に光を放つバイナリ分類に着目する。
環境上で不変なモデルをトレーニングできるような、バイナリ設定にのみ存在するユニークな不変性の形式を特定します。
本稿では,実データと合成データを用いた予測手法の提案と実験を行う。
- 参考スコア(独自算出の注目度): 2.0528878959274883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Making predictions in an unseen environment given data from multiple training environments is a challenging task. We approach this problem from an invariance perspective, focusing on binary classification to shed light on general nonlinear data generation mechanisms. We identify a unique form of invariance that exists solely in a binary setting that allows us to train models invariant over environments. We provide sufficient conditions for such invariance and show it is robust even when environmental conditions vary greatly. Our formulation admits a causal interpretation, allowing us to compare it with various frameworks. Finally, we propose a heuristic prediction method and conduct experiments using real and synthetic datasets.
- Abstract(参考訳): 複数のトレーニング環境からのデータを元にした、目に見えない環境での予測は、難しい作業です。
我々はこの問題を不変の観点からアプローチし、二項分類に焦点をあて、一般的な非線形データ生成機構に光を当てる。
環境上で不変なモデルをトレーニングできるような、バイナリ設定にのみ存在するユニークな不変性の形式を特定します。
我々は, 環境条件が大きく変化する場合でも, 十分な環境条件を提供し, 頑健であることを示す。
我々の定式化は因果解釈を認めており、様々なフレームワークと比較することができる。
最後に,実データと合成データを用いたヒューリスティックな予測手法を提案し,実験を行った。
関連論文リスト
- The Implicit Bias of Heterogeneity towards Invariance: A Study of Multi-Environment Matrix Sensing [9.551225697705199]
本稿では,不均一なデータに対するグラディエント・ディキセント(SGD)の暗黙バイアスについて検討し,その暗黙バイアスがモデル学習を不変解へと導くことを示す。
具体的には、各環境において、信号が(i)全環境間で共有される低ランク不変部分と(ii)環境依存のスプリアス成分とを含む多環境低ランク行列センシング問題について理論的に検討する。
重要な洞察は、明示的な正規化を伴わずに各環境で大きなステップサイズの大バッチSGDを逐次使用するだけで、不均一性に起因する振動は、モデル学習の急激なシグナルを確実に阻止することができることである。
論文 参考訳(メタデータ) (2024-03-03T07:38:24Z) - Conformal Inference for Invariant Risk Minimization [12.049545417799125]
機械学習モデルの応用は、分布シフトの発生によって著しく阻害される可能性がある。
この問題を解決する一つの方法は、不変リスク最小化(IRM)のような不変学習を用いて不変表現を取得することである。
本稿では,不変表現に対する不確実性推定を記述するために,分布自由予測領域を得る手法を提案する。
論文 参考訳(メタデータ) (2023-05-22T03:48:38Z) - Environment Invariant Linear Least Squares [18.387614531869826]
本稿では,複数の実験環境からのデータを収集する多環境線形回帰モデルについて考察する。
線形最小二乗回帰のマルチ環境バージョンである、新しい環境不変線形最小二乗関数(EILLS)を構築する。
論文 参考訳(メタデータ) (2023-03-06T13:10:54Z) - Decorr: Environment Partitioning for Invariant Learning and OOD Generalization [10.799855921851332]
不変学習手法は、複数の環境にまたがる一貫した予測器を特定することを目的としている。
データに固有の環境がなければ、実践者はそれらを手動で定義しなければならない。
この環境分割は不変学習の有効性に影響を及ぼすが、いまだ過小評価されていない。
本稿では,低相関データサブセットを分離することで,データセットを複数の環境に分割することを提案する。
論文 参考訳(メタデータ) (2022-11-18T06:49:35Z) - Equivariant Disentangled Transformation for Domain Generalization under
Combination Shift [91.38796390449504]
ドメインとラベルの組み合わせは、トレーニング中に観察されるのではなく、テスト環境に現れる。
我々は、同型の概念、同値性、および整合性の定義に基づく結合シフト問題の一意的な定式化を提供する。
論文 参考訳(メタデータ) (2022-08-03T12:31:31Z) - Equivariance and Invariance Inductive Bias for Learning from
Insufficient Data [65.42329520528223]
不十分なデータがモデルを、通常テストとは異なる限られたトレーニング環境にバイアスしやすくする理由が示されています。
従来のIRMにおける環境アノテーションの欠如を効果的に解決するクラスワイド不変リスク最小化(IRM)を提案する。
論文 参考訳(メタデータ) (2022-07-25T15:26:19Z) - Predicting Out-of-Domain Generalization with Neighborhood Invariance [59.05399533508682]
局所変換近傍における分類器の出力不変性の尺度を提案する。
私たちの測度は計算が簡単で、テストポイントの真のラベルに依存しません。
画像分類,感情分析,自然言語推論のベンチマーク実験において,我々の測定値と実際のOOD一般化との間に強い相関関係を示す。
論文 参考訳(メタデータ) (2022-07-05T14:55:16Z) - Differentiable Invariant Causal Discovery [106.87950048845308]
観測データから因果構造を学ぶことは、機械学習の基本的な課題である。
本稿では,不特定変分因果解法(DICD)を提案する。
合成および実世界のデータセットに関する大規模な実験は、DICDがSHDの36%まで最先端の因果発見手法より優れていることを検証している。
論文 参考訳(メタデータ) (2022-05-31T09:29:07Z) - Equivariance Discovery by Learned Parameter-Sharing [153.41877129746223]
データから解釈可能な等価性を発見する方法について検討する。
具体的には、モデルのパラメータ共有方式に対する最適化問題として、この発見プロセスを定式化する。
また,ガウスデータの手法を理論的に解析し,研究された発見スキームとオラクルスキームの間の平均2乗ギャップを限定する。
論文 参考訳(メタデータ) (2022-04-07T17:59:19Z) - ZIN: When and How to Learn Invariance by Environment Inference? [24.191152823045385]
環境分割に基づく頑健で不変なモデルを学ぶための不変学習法が提案されている。
この状況下での学習の不変性は、帰納的バイアスや追加情報なしでは基本的に不可能であることを示す。
本稿では,環境分割と不変表現を協調的に学習するフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-11T10:00:33Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。