論文の概要: Causal Information Splitting: Engineering Proxy Features for Robustness
to Distribution Shifts
- arxiv url: http://arxiv.org/abs/2305.05832v3
- Date: Mon, 31 Jul 2023 18:18:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 17:37:15.851068
- Title: Causal Information Splitting: Engineering Proxy Features for Robustness
to Distribution Shifts
- Title(参考訳): 因果情報分割:分散シフトへのロバストネスのためのエンジニアリングプロキシ機能
- Authors: Bijan Mazaheri, Atalanti Mastakouri, Dominik Janzing, Michaela Hardt
- Abstract要約: 我々は、標的の因果変数と反因果変数が観測されない困難な設定に焦点をあてる。
我々は,プロキシとして機能する観測下流変数の特徴選択と工学的手法を開発した。
安定したモデルを構築するのに役立つプロキシを特定し、さらに、補助的なトレーニングタスクを使用して、対実的な質問に答える。
- 参考スコア(独自算出の注目度): 13.42107537298303
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Statistical prediction models are often trained on data from different
probability distributions than their eventual use cases. One approach to
proactively prepare for these shifts harnesses the intuition that causal
mechanisms should remain invariant between environments. Here we focus on a
challenging setting in which the causal and anticausal variables of the target
are unobserved. Leaning on information theory, we develop feature selection and
engineering techniques for the observed downstream variables that act as
proxies. We identify proxies that help to build stable models and moreover
utilize auxiliary training tasks to answer counterfactual questions that
extract stability-enhancing information from proxies. We demonstrate the
effectiveness of our techniques on synthetic and real data.
- Abstract(参考訳): 統計予測モデルは、結果のユースケースと異なる確率分布のデータに基づいて訓練されることが多い。
これらのシフトを積極的に準備する一つのアプローチは、因果メカニズムは環境間で不変であるべきだという直観を利用する。
ここでは、ターゲットの因果変数と反因果変数が観測されない困難な設定に焦点を当てる。
情報理論に基づいて、プロキシとして機能する観測下流変数の特徴選択と工学的手法を開発する。
安定なモデルを構築するのに役立つプロキシを特定し、さらに補助トレーニングタスクを利用して、プロキシから安定性向上情報を抽出する偽りの質問に答える。
合成データおよび実データに対する本手法の有効性を実証する。
関連論文リスト
- Indiscriminate Disruption of Conditional Inference on Multivariate Gaussians [60.22542847840578]
敵対的機械学習の進歩にもかかわらず、敵対者の存在下でのガウスモデルに対する推論は特に過小評価されている。
我々は,意思決定者の条件推論とその後の行動の妨害を希望する自己関心のある攻撃者について,一組の明らかな変数を乱すことで検討する。
検出を避けるため、攻撃者は、破損した証拠の密度によって可否が決定される場合に、攻撃が可否を示すことを望んでいる。
論文 参考訳(メタデータ) (2024-11-21T17:46:55Z) - Optimal Classification under Performative Distribution Shift [13.508249764979075]
本稿では,動作効果をプッシュフォワード尺度としてモデル化した新しい視点を提案する。
我々は、新しい仮定のセットの下で、パフォーマンスリスクの凸性を証明する。
また, 性能リスクの最小化を min-max 変動問題として再定義することにより, 逆向きの頑健な分類との関係を確立する。
論文 参考訳(メタデータ) (2024-11-04T12:20:13Z) - Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
本稿では,テキスト・インフルエンス・ファンクション・フレームワークを開発することにより,このような課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Quantifying Distribution Shifts and Uncertainties for Enhanced Model Robustness in Machine Learning Applications [0.0]
本研究では,合成データを用いたモデル適応と一般化について検討する。
我々は、データ類似性を評価するために、Kullback-Leiblerの発散、Jensen-Shannon距離、Mahalanobis距離などの量的尺度を用いる。
本研究は,マハラノビス距離などの統計指標を用いて,モデル予測が低誤差の「補間体制」内にあるか,あるいは高誤差の「補間体制」が分布変化とモデル不確実性を評価するための補完的手法を提供することを示唆している。
論文 参考訳(メタデータ) (2024-05-03T10:05:31Z) - The Common Stability Mechanism behind most Self-Supervised Learning
Approaches [64.40701218561921]
自己指導型学習手法の安定性のメカニズムを説明するための枠組みを提供する。
我々は,BYOL,SWAV,SimSiam,Barlow Twins,DINOなどの非コントラスト技術であるSimCLRの動作メカニズムについて議論する。
私たちは異なる仮説を定式化し、Imagenet100データセットを使ってそれらをテストします。
論文 参考訳(メタデータ) (2024-02-22T20:36:24Z) - Are Data-driven Explanations Robust against Out-of-distribution Data? [18.760475318852375]
エンドツーエンドのモデルに依存しない学習フレームワークであるDis Distributionally Robust Explanations (DRE)を提案する。
鍵となる考え方は、分配情報を完全に活用して、人間のアノテーションを使わずに説明の学習のための監視信号を提供することである。
提案手法は,分布変化に対する説明と予測の堅牢性の観点から,モデルの性能を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-03-29T02:02:08Z) - Fair Visual Recognition via Intervention with Proxy Features [13.280828458515062]
既存の作業は、デバイアスのモデルにおける社会的属性に関する情報を最小限にする。
目標タスクと社会的属性の高相関は、目標タスクの精度とバイアス軽減を両立させる。
本稿では,まず,対象タスクのバイアス情報の学習をバイアス特徴から人工的プロキシ特徴に伝達し,推論におけるプロキシ特徴の排除に因果的介入を適用することを提案する。
論文 参考訳(メタデータ) (2022-11-02T16:33:49Z) - Certifying Model Accuracy under Distribution Shifts [151.67113334248464]
本稿では,データ分布の有界ワッサースタインシフトの下でのモデルの精度について,証明可能なロバスト性保証を提案する。
変換空間におけるモデルの入力をランダム化する単純な手順は、変換の下での分布シフトに対して確実に堅牢であることを示す。
論文 参考訳(メタデータ) (2022-01-28T22:03:50Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Regularizing towards Causal Invariance: Linear Models with Proxies [7.953401800573514]
一つのプロキシを使って、境界強度の介入の下で最適に予測できる推定器を作成できることを示す。
トレーニング中に"テスト時間"の介入について追加情報が得られるシナリオにこれらの推定器を拡張する方法を示す。
論文 参考訳(メタデータ) (2021-03-03T15:39:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。