論文の概要: Accounting for Unobserved Confounding in Domain Generalization
- arxiv url: http://arxiv.org/abs/2007.10653v6
- Date: Thu, 3 Feb 2022 15:26:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 04:13:19.519144
- Title: Accounting for Unobserved Confounding in Domain Generalization
- Title(参考訳): ドメイン一般化における観測不能なコンファウンディングの会計
- Authors: Alexis Bellot and Mihaela van der Schaar
- Abstract要約: 本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
- 参考スコア(独自算出の注目度): 107.0464488046289
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates the problem of learning robust, generalizable
prediction models from a combination of multiple datasets and qualitative
assumptions about the underlying data-generating model. Part of the challenge
of learning robust models lies in the influence of unobserved confounders that
void many of the invariances and principles of minimum error presently used for
this problem. Our approach is to define a different invariance property of
causal solutions in the presence of unobserved confounders which, through a
relaxation of this invariance, can be connected with an explicit
distributionally robust optimization problem over a set of affine combination
of data distributions. Concretely, our objective takes the form of a standard
loss, plus a regularization term that encourages partial equality of error
derivatives with respect to model parameters. We demonstrate the empirical
performance of our approach on healthcare data from different modalities,
including image, speech and tabular data.
- Abstract(参考訳): 本稿では,複数のデータセットと基礎となるデータ生成モデルに関する質的仮定の組み合わせから,頑健で一般化可能な予測モデルを学習する問題について検討する。
堅牢なモデルを学ぶことの課題の一部は、現在この問題に使われている最小エラーの不変性や原則の多くを無効にする、観測されていない共同創設者の影響にある。
我々のアプローチは、観測されていない共同創設者の存在下で因果的解の異なる不変性を定義することである。この不変性を緩和することで、データ分布のアフィン結合の集合上の明示的な分布的ロバストな最適化問題と接続することができる。
具体的には、我々の目的は標準損失の形式と、モデルパラメータに対する誤差微分の部分的等式を促進する正規化項を取り入れている。
画像, 音声, 表計算データなど, 異なるモードの医療データに対するアプローチの実証的性能を実証した。
関連論文リスト
- The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - It's All in the Mix: Wasserstein Machine Learning with Mixed Features [5.739657897440173]
混合機能問題の解法として,実用的なアルゴリズムを提案する。
提案手法は, 個々の特徴が存在する場合の既存手法を著しく上回りうることを示す。
論文 参考訳(メタデータ) (2023-12-19T15:15:52Z) - Ensemble Modeling for Multimodal Visual Action Recognition [50.38638300332429]
マルチモーダル動作認識のためのアンサンブルモデリング手法を提案する。
我々は,MECCANO[21]データセットの長期分布を処理するために,焦点損失の変種を用いて,個別のモダリティモデルを個別に訓練する。
論文 参考訳(メタデータ) (2023-08-10T08:43:20Z) - Consistent Explanations in the Face of Model Indeterminacy via
Ensembling [12.661530681518899]
この研究は、モデル不確定性の存在下で予測モデルに対して一貫した説明を提供することの課題に対処する。
これらのシナリオで提供される説明の一貫性を高めるためのアンサンブル手法を導入する。
本研究は,説明文の解釈において,モデル不確定性を考慮することの重要性を強調した。
論文 参考訳(メタデータ) (2023-06-09T18:45:43Z) - Learning Invariant Representations under General Interventions on the
Response [2.725698729450241]
線形構造因果モデル(SCM)に着目し、不変整合性(IMP)を導入する。
離散環境と連続環境の両方において,本手法の一般化誤差を解析する。
論文 参考訳(メタデータ) (2022-08-22T03:09:17Z) - Studying Generalization Through Data Averaging [0.0]
本研究では,異なるデータセットのサンプルに対する差の平均から得られる一般化ギャップと,列車および試験性能について検討する。
我々はSGDノイズの関数として一般化ギャップとモデルトレインとテスト性能の相違についていくつかの側面を予測した。
論文 参考訳(メタデータ) (2022-06-28T00:03:40Z) - Learning from few examples with nonlinear feature maps [68.8204255655161]
我々はこの現象を探求し、AIモデルの特徴空間の次元性、データ分散の非退化、モデルの一般化能力の間の重要な関係を明らかにする。
本分析の主な推力は、元のデータを高次元および無限次元空間にマッピングする非線形特徴変換が結果のモデル一般化能力に与える影響である。
論文 参考訳(メタデータ) (2022-03-31T10:36:50Z) - Discriminative Multimodal Learning via Conditional Priors in Generative
Models [21.166519800652047]
本研究は,モデルトレーニングにおいて,すべてのモダリティとクラスラベルが利用できる現実的なシナリオについて研究する。
このシナリオでは、変動的な下界境界は、結合表現と欠測モダリティの間の相互情報を制限する。
論文 参考訳(メタデータ) (2021-10-09T17:22:24Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - On Disentangled Representations Learned From Correlated Data [59.41587388303554]
相関データに対する最も顕著な絡み合うアプローチの挙動を解析することにより、現実のシナリオにギャップを埋める。
本研究では,データセットの体系的相関が学習され,潜在表現に反映されていることを示す。
また、トレーニング中の弱い監督や、少数のラベルで事前訓練されたモデルを修正することで、これらの潜伏相関を解消する方法を実証する。
論文 参考訳(メタデータ) (2020-06-14T12:47:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。