論文の概要: Domain Generalization -- A Causal Perspective
- arxiv url: http://arxiv.org/abs/2209.15177v1
- Date: Fri, 30 Sep 2022 01:56:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 16:09:44.899214
- Title: Domain Generalization -- A Causal Perspective
- Title(参考訳): ドメインの一般化 --因果的視点
- Authors: Paras Sheth, Raha Moraffah, K. Sel\c{c}uk Candan, Adrienne Raglin,
Huan Liu
- Abstract要約: 機械学習モデルは、ヘルスケアからパーソナライズされたレコメンデーションまで、広く成功している。
これらのモデルの予備的な仮定の1つは、独立かつ同一の分布である。
モデルはこの仮定に大きく依存しているため、一般化能力は乏しい。
- 参考スコア(独自算出の注目度): 20.630396283221838
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models have gained widespread success, from healthcare to
personalized recommendations. One of the preliminary assumptions of these
models is the independent and identical distribution. Therefore, the train and
test data are sampled from the same observation per this assumption. However,
this assumption seldom holds in the real world due to distribution shifts.
Since the models rely heavily on this assumption, they exhibit poor
generalization capabilities. Over the recent years, dedicated efforts have been
made to improve the generalization capabilities of these models. The primary
idea behind these methods is to identify stable features or mechanisms that
remain invariant across the different distributions. Many generalization
approaches employ causal theories to describe invariance since causality and
invariance are inextricably intertwined. However, current surveys deal with the
causality-aware domain generalization methods on a very high-level.
Furthermore, none of the existing surveys categorize the causal domain
generalization methods based on the problem and causal theories these methods
leverage. To this end, we present a comprehensive survey on causal domain
generalization models from the aspects of the problem and causal theories.
Furthermore, this survey includes in-depth insights into publicly accessible
datasets and benchmarks for domain generalization in various domains. Finally,
we conclude the survey with insights and discussions on future research
directions. Finally, we conclude the survey with insights and discussions on
future research directions.
- Abstract(参考訳): 機械学習モデルは、ヘルスケアからパーソナライズされたレコメンデーションまで、広く成功している。
これらのモデルの予備仮定の1つは独立分布と同一分布である。
したがって、この仮定に従って同じ観測結果から列車と試験データをサンプリングする。
しかし、この仮定は分布シフトによって現実世界ではほとんど成り立たない。
モデルはこの仮定に大きく依存しているため、一般化能力は乏しい。
近年,これらのモデルの一般化能力の向上に努力が注がれている。
これらの手法の背景にある基本的な考え方は、異なる分布で不変な安定な特徴やメカニズムを特定することである。
多くの一般化のアプローチでは因果関係と不変性が厳密に絡み合っているため、因果論を用いて不変性を記述する。
しかし、現在の調査は、非常に高いレベルで因果性を認識したドメイン一般化メソッドを扱う。
さらに、既存の調査では、これらの手法が活用する問題や因果理論に基づいて因果領域一般化法を分類していない。
そこで本研究では,問題と因果理論の側面から,因果領域一般化モデルに関する包括的調査を行う。
さらに、この調査には、さまざまなドメインにおけるパブリックアクセス可能なデータセットとドメインの一般化のためのベンチマークに関する詳細な洞察が含まれている。
最後に,今後の研究方向性に関する知見と議論をまとめてまとめる。
最後に,今後の研究方向性に関する知見と議論をまとめてまとめる。
関連論文リスト
- Generalizing to any diverse distribution: uniformity, gentle finetuning and rebalancing [55.791818510796645]
我々は,訓練データから大きく逸脱した場合でも,様々なテスト分布によく適応するモデルを開発することを目的としている。
ドメイン適応、ドメイン一般化、ロバスト最適化といった様々なアプローチは、アウト・オブ・ディストリビューションの課題に対処しようと試みている。
我々は、既知のドメイン内の十分に多様なテスト分布にまたがる最悪のケースエラーを考慮することで、より保守的な視点を採用する。
論文 参考訳(メタデータ) (2024-10-08T12:26:48Z) - On the Generalization Properties of Diffusion Models [33.93850788633184]
この研究は拡散モデルの一般化特性を包括的に理論的に探求することを目的としている。
我々は、スコアベース拡散モデルのトレーニング力学と合わせて、タンデムで進化する一般化ギャップの理論的推定値を確立する。
我々は定量分析をデータ依存のシナリオに拡張し、対象の分布を密度の連続として表現する。
論文 参考訳(メタデータ) (2023-11-03T09:20:20Z) - Assaying Out-Of-Distribution Generalization in Transfer Learning [103.57862972967273]
私たちは、経験的に対処するメッセージの相違を強調して、以前の作業の統一的なビューを取ります。
私たちは9つの異なるアーキテクチャから、多数の、あるいは少数の設定で31K以上のネットワークを微調整しました。
論文 参考訳(メタデータ) (2022-07-19T12:52:33Z) - Causality Inspired Representation Learning for Domain Generalization [47.574964496891404]
本稿では、ドメイン一般化問題を形式化する一般的な構造因果モデルを提案する。
我々の目標は、入力から因果因子を抽出し、不変因果機構を再構築することである。
理想的な因果因子は、非因果的要因から分離され、共同独立であり、分類に十分な因果的要因である。
論文 参考訳(メタデータ) (2022-03-27T08:08:33Z) - Causal Forecasting:Generalization Bounds for Autoregressive Models [19.407531303870087]
本稿では,予測のための「因果学習理論」の枠組みを紹介する。
統計的リスクと因果リスクの違いを特徴付ける。
これは時系列設定における因果一般化の理論的保証を提供する最初の研究である。
論文 参考訳(メタデータ) (2021-11-18T17:56:20Z) - A Survey on Evidential Deep Learning For Single-Pass Uncertainty
Estimation [0.0]
情報深層学習(Evidential Deep Learning): 馴染みのないデータに対して、彼らは“知らないこと”を認め、以前の信念に戻る。
この調査は、Evidential Deep Learningという概念に基づいた、別のモデルのクラスを読者に親しみやすくすることを目的としている。
論文 参考訳(メタデータ) (2021-10-06T20:13:57Z) - Towards Out-Of-Distribution Generalization: A Survey [46.329995334444156]
アウト・オブ・ディストリビューションの一般化は、機械学習研究の新たなトピックである。
本論文は,OODの一般化に関する総合的,体系的な最初のレビューである。
論文 参考訳(メタデータ) (2021-08-31T05:28:42Z) - Self-balanced Learning For Domain Generalization [64.99791119112503]
ドメインの一般化は、モデルが未知の統計を持つ対象のドメインに一般化できるように、マルチドメインのソースデータの予測モデルを学ぶことを目的としている。
既存のアプローチのほとんどは、ソースデータがドメインとクラスの両方の観点からバランスよく調整されているという前提の下で開発されている。
本稿では,多領域ソースデータの分布の違いによるバイアスを軽減するために,損失の重み付けを適応的に学習する自己均衡型領域一般化フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-31T03:17:54Z) - In Search of Robust Measures of Generalization [79.75709926309703]
我々は、一般化誤差、最適化誤差、過大なリスクのバウンダリを開発する。
経験的に評価すると、これらの境界の大部分は数値的に空白である。
我々は、分散ロバストネスの枠組みの中で、一般化対策を評価するべきであると論じる。
論文 参考訳(メタデータ) (2020-10-22T17:54:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。