論文の概要: Robust Learning via Conditional Prevalence Adjustment
- arxiv url: http://arxiv.org/abs/2310.15766v1
- Date: Tue, 24 Oct 2023 12:13:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 19:02:14.075759
- Title: Robust Learning via Conditional Prevalence Adjustment
- Title(参考訳): 条件付き精度調整によるロバスト学習
- Authors: Minh Nguyen, Alan Q. Wang, Heejong Kim, Mert R. Sabuncu
- Abstract要約: ディープラーニングモデルは、目に見えない場所で破滅的に失敗する可能性がある。
本稿では,CoPA(Conditional Prevalence-Adjustment)という手法を提案する。
- 参考スコア(独自算出の注目度): 7.480241867887245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Healthcare data often come from multiple sites in which the correlations
between confounding variables can vary widely. If deep learning models exploit
these unstable correlations, they might fail catastrophically in unseen sites.
Although many methods have been proposed to tackle unstable correlations, each
has its limitations. For example, adversarial training forces models to
completely ignore unstable correlations, but doing so may lead to poor
predictive performance. Other methods (e.g. Invariant risk minimization [4])
try to learn domain-invariant representations that rely only on stable
associations by assuming a causal data-generating process (input X causes class
label Y ). Thus, they may be ineffective for anti-causal tasks (Y causes X),
which are common in computer vision. We propose a method called CoPA
(Conditional Prevalence-Adjustment) for anti-causal tasks. CoPA assumes that
(1) generation mechanism is stable, i.e. label Y and confounding variable(s) Z
generate X, and (2) the unstable conditional prevalence in each site E fully
accounts for the unstable correlations between X and Y . Our crucial
observation is that confounding variables are routinely recorded in healthcare
settings and the prevalence can be readily estimated, for example, from a set
of (Y, Z) samples (no need for corresponding samples of X). CoPA can work even
if there is a single training site, a scenario which is often overlooked by
existing methods. Our experiments on synthetic and real data show CoPA beating
competitive baselines.
- Abstract(参考訳): 医療データは、境界変数間の相関が広く変化する複数の場所から来ることが多い。
深層学習モデルがこれらの不安定な相関を利用していれば、目に見えない場所で破滅的に失敗する可能性がある。
不安定な相関に対処する多くの方法が提案されているが、それぞれに制限がある。
例えば、敵対的なトレーニングはモデルに不安定な相関を完全に無視させるが、それによって予測性能が低下する可能性がある。
他の方法(例えば不変リスク最小化[4])は、因果データ生成過程を仮定して、安定した関連性のみに依存するドメイン不変表現を学習しようとする(入力 X はクラスラベル Y を引き起こす)。
したがって、それらはコンピュータビジョンに共通する反因果タスク(Y cause X)に対して効果がない。
本稿では,CoPA(Conditional Prevalence-Adjustment)という手法を提案する。
CoPAは、(1)生成機構が安定であり、すなわちラベルYと共起変数(s)ZがXを発生し、(2)各サイトEにおける不安定な条件付き確率がXとYの不安定な相関を完全に考慮していると仮定する。
我々の重要な観察は、共起変数は医療現場で定期的に記録され、例えば (Y, Z) サンプルのセット(X のサンプルは不要)から容易に有病率を推定できるということです。
CoPAは、たとえ1つのトレーニングサイトがあっても機能する。
合成データと実データを用いた実験では,CoPAが競争ベースラインを上回っていることがわかった。
関連論文リスト
- Adapting to Shifting Correlations with Unlabeled Data Calibration [6.84735357291896]
サイト間の分散シフトは、不安定な相関を利用する傾向にあるため、モデル性能を著しく低下させる可能性がある。
本稿では,モデル予測を予測対象と共同設立者間のシフト相関に適応させるフレキシブルな手法であるGeneralized Prevalence Adjustment (GPA)を提案する。
GPAは、これらのサイトからの未ラベルのサンプルを使用して、新しいサイトのターゲットと共同創設者の相互作用を推測することができる。
論文 参考訳(メタデータ) (2024-09-09T18:45:43Z) - TIC-TAC: A Framework for Improved Covariance Estimation in Deep Heteroscedastic Regression [109.69084997173196]
奥行き回帰は、予測分布の平均と共分散を負の対数類似度を用いて共同最適化する。
近年の研究では, 共分散推定に伴う課題により, 準最適収束が生じる可能性が示唆されている。
1)予測共分散は予測平均のランダム性を真に捉えているか?
その結果, TICは共分散を正確に学習するだけでなく, 負の対数類似性の収束性の向上も促進することがわかった。
論文 参考訳(メタデータ) (2023-10-29T09:54:03Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - A Learning Based Hypothesis Test for Harmful Covariate Shift [3.1406146587437904]
リスクの高いドメインの機械学習システムは、アウト・オブ・ディストリビューションテストの例で予測をすべきでないことを特定する必要がある。
本研究では、トレーニングデータに同意し、テストデータに同意するように訓練された分類器のアンサンブル間の不一致を利用して、モデルがデプロイ設定から削除されるかどうかを判断する。
論文 参考訳(メタデータ) (2022-12-06T04:15:24Z) - Breaking the Spurious Causality of Conditional Generation via Fairness
Intervention with Corrective Sampling [77.15766509677348]
条件生成モデルは、トレーニングデータセットから急激な相関を継承することが多い。
これは別の潜在属性に対して不均衡なラベル条件分布をもたらす。
この問題を緩和するための一般的な2段階戦略を提案する。
論文 参考訳(メタデータ) (2022-12-05T08:09:33Z) - Stable Learning via Sparse Variable Independence [41.632242102167844]
共変量シフト一般化問題に対するSVI(Sparse Variable Independence)を提案する。
有限サンプル設定下でのサンプル再加重の不完全性を補うために、スペーサ性制約を導入する。
合成データセットと実世界のデータセットの両方の実験は、SVIの改良を実証している。
論文 参考訳(メタデータ) (2022-12-02T05:59:30Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z) - Information-Theoretic Approximation to Causal Models [0.0]
有限標本から2つの確率変数間の因果方向と因果効果を推定する問題の解法が可能であることを示す。
X と Y のサンプルから生じる分布を高次元確率空間に埋め込む。
本稿では, 線形最適化問題を解くことにより, 因果モデル(IACM)に対する情報理論近似が可能であることを示す。
論文 参考訳(メタデータ) (2020-07-29T18:34:58Z) - Stable Prediction via Leveraging Seed Variable [73.9770220107874]
従来の機械学習手法は、非因果変数によって誘導されるトレーニングデータにおいて、微妙に刺激的な相関を利用して予測する。
本研究では, 条件付き独立性テストに基づくアルゴリズムを提案し, 種子変数を先行変数とする因果変数を分離し, 安定な予測に採用する。
我々のアルゴリズムは、安定した予測のための最先端の手法より優れている。
論文 参考訳(メタデータ) (2020-06-09T06:56:31Z) - MissDeepCausal: Causal Inference from Incomplete Data Using Deep Latent
Variable Models [14.173184309520453]
因果推論の最先端の手法は、欠落した値を考慮していない。
欠落したデータは、適応された未確立仮説を必要とする。
欠落した値に適応した変分オートエンコーダを通じて分布を学習する潜在的共同設立者について考察する。
論文 参考訳(メタデータ) (2020-02-25T12:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。