論文の概要: Learning Invariant Representations under General Interventions on the
Response
- arxiv url: http://arxiv.org/abs/2208.10027v1
- Date: Mon, 22 Aug 2022 03:09:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 14:33:57.586428
- Title: Learning Invariant Representations under General Interventions on the
Response
- Title(参考訳): 反応に対する一般介入による不変表現の学習
- Authors: Kang Du and Yu Xiang
- Abstract要約: 分散シフトによって異なる分布を持つデータに対して、学習した予測器を適用する必要がある。
原則的なアプローチの1つは、トレーニングモデルとテストモデルを記述するために構造因果モデルを採用することである。
自然の疑問は、目に見えない環境で予測を促進するために他の形の不変性を特定することができるかどうかである。
- 参考スコア(独自算出の注目度): 19.786769414376323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It has become increasingly common nowadays to collect observations of feature
and response pairs from different environments. As a consequence, one has to
apply learned predictors to data with a different distribution due to
distribution shifts. One principled approach is to adopt the structural causal
models to describe training and test models, following the invariance principle
which says that the conditional distribution of the response given its
predictors remains the same across environments. However, this principle might
be violated in practical settings when the response is intervened. A natural
question is whether it is still possible to identify other forms of invariance
to facilitate prediction in unseen environments. To shed light on this
challenging scenario, we introduce invariant matching property (IMP) which is
an explicit relation to capture interventions through an additional feature.
This leads to an alternative form of invariance that enables a unified
treatment of general interventions on the response. We analyze the asymptotic
generalization errors of our method under both the discrete and continuous
environment settings, where the continuous case is handled by relating it to
the semiparametric varying coefficient models. We present algorithms that show
competitive performance compared to existing methods over various experimental
settings.
- Abstract(参考訳): 近年、異なる環境から特徴と応答のペアを観察することが一般的になっている。
その結果、分散シフトによって異なる分布を持つデータに学習した予測器を適用する必要がある。
1つの原理的なアプローチは、トレーニングとテストモデルを記述するために構造因果モデルを採用することである。
しかし、この原則は、応答がインターバルされたときに実践的な設定で違反する可能性がある。
自然の疑問は、目に見えない環境で予測を促進するために他の形の不変性を特定することができるかどうかである。
この難解なシナリオを明らかにするために、追加機能を通じて介入を捕捉する明示的な関係である不変整合性(IMP)を導入する。
これは、反応に対する一般的な介入の統一的な処理を可能にする別の形の不変性をもたらす。
本手法の漸近的一般化誤差を離散的および連続的な環境条件下で解析し,半パラメトリック変動係数モデルに関連付けて連続ケースを処理した。
各種実験環境における既存手法と比較して競争性能を示すアルゴリズムを提案する。
関連論文リスト
- Generative vs. Discriminative modeling under the lens of uncertainty quantification [0.929965561686354]
本稿では,生成的アプローチと識別的アプローチの比較分析を行った。
両手法が,不確実性を考慮した推論において,様々な情報源からの情報を活用する能力を比較する。
本稿では,両手法の教師あり学習と,検討されたモデリング手法と互換性のあるセミ教師あり学習を実現するための一般的なサンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T14:32:43Z) - Causality Pursuit from Heterogeneous Environments via Neural Adversarial Invariance Learning [12.947265104477237]
データから因果関係を抽出することは、科学的発見、治療介入、伝達学習における根本的な問題である。
Focused Adversial Invariant Regularization (FAIR) フレームワークは、革新的なミニマックス最適化アプローチを採用している。
FAIR-NNは最小の識別条件下で不変変数と準因果変数を見つけることができる。
論文 参考訳(メタデータ) (2024-05-07T23:37:40Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Predicting Out-of-Domain Generalization with Neighborhood Invariance [59.05399533508682]
局所変換近傍における分類器の出力不変性の尺度を提案する。
私たちの測度は計算が簡単で、テストポイントの真のラベルに依存しません。
画像分類,感情分析,自然言語推論のベンチマーク実験において,我々の測定値と実際のOOD一般化との間に強い相関関係を示す。
論文 参考訳(メタデータ) (2022-07-05T14:55:16Z) - PAC Generalization via Invariant Representations [41.02828564338047]
有限標本集合における$epsilon$-approximate不変性の概念を考える。
PAC学習にインスパイアされ、有限サンプルのアウト・オブ・ディストリビューション一般化保証を得る。
この結果から, 介入部位が非次境界ノードの一定サイズの部分集合内にある場合に, 周囲次元でスケールしない境界を示す。
論文 参考訳(メタデータ) (2022-05-30T15:50:14Z) - An Invariant Matching Property for Distribution Generalization under
Intervened Response [19.786769414376323]
特定の特徴の推定値を追加の予測子として組み込むことにより、新しい不変性を示す。
本稿では,線形マッチングの明示的な特徴と,様々な介入条件下でのシミュレーション結果について述べる。
論文 参考訳(メタデータ) (2022-05-18T18:25:21Z) - Goal-oriented adaptive sampling under random field modelling of response
probability distributions [0.6445605125467573]
応答分布の空間的変動がそれらの平均および/または分散だけでなく、例えば、形状や一様性、多様性などを含む他の特徴も考慮する。
我々の貢献は、それによって引き起こされる確率分布の場をモデル化する非パラメトリックベイズアプローチに基づいている。
論文 参考訳(メタデータ) (2021-02-15T15:55:23Z) - Learning Disentangled Representations with Latent Variation
Predictability [102.4163768995288]
本稿では,潜在不整合表現の変動予測可能性について述べる。
逆生成プロセス内では、潜時変動と対応する画像対の相互情報を最大化することにより、変動予測可能性を高める。
本研究では,潜在表現の絡み合いを測るために,基礎的構造的生成因子に依存しない評価指標を開発する。
論文 参考訳(メタデータ) (2020-07-25T08:54:26Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z) - A One-step Approach to Covariate Shift Adaptation [82.01909503235385]
多くの機械学習シナリオにおけるデフォルトの前提は、トレーニングとテストサンプルは同じ確率分布から引き出されることである。
予測モデルと関連する重みを1つの最適化で共同で学習する新しいワンステップアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-08T11:35:47Z) - Learning Overlapping Representations for the Estimation of
Individualized Treatment Effects [97.42686600929211]
観測データから代替案の可能性を推定することは難しい問題である。
入力のドメイン不変表現を学習するアルゴリズムは、しばしば不適切であることを示す。
我々は,様々なベンチマークデータセットの最先端性を大幅に向上させる,ディープカーネル回帰アルゴリズムと後続正規化フレームワークを開発した。
論文 参考訳(メタデータ) (2020-01-14T12:56:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。