論文の概要: Causal Balancing for Domain Generalization
- arxiv url: http://arxiv.org/abs/2206.05263v1
- Date: Fri, 10 Jun 2022 17:59:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-13 15:38:30.313069
- Title: Causal Balancing for Domain Generalization
- Title(参考訳): ドメイン一般化のための因果バランス
- Authors: Xinyi Wang, Michael Saxon, Jiachen Li, Hongyang Zhang, Kun Zhang,
William Yang Wang
- Abstract要約: そこで本研究では,観察されたトレーニング分布の領域特異的なスプリアス相関を低減するために,バランスの取れたミニバッチサンプリング戦略を提案する。
本研究では, 突発性源の同定可能性を保証するとともに, バランスの取れた, 突発性のない分布から, 提案手法が有効にサンプリング可能であることを示す。
- 参考スコア(独自算出の注目度): 95.97046583437145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While machine learning models rapidly advance the state-of-the-art on various
real-world tasks, out-of-domain (OOD) generalization remains a challenging
problem given the vulnerability of these models to spurious correlations. While
current domain generalization methods usually focus on enforcing certain
invariance properties across different domains by new loss function designs, we
propose a balanced mini-batch sampling strategy to reduce the domain-specific
spurious correlations in the observed training distributions. More
specifically, we propose a two-phased method that 1) identifies the source of
spurious correlations, and 2) builds balanced mini-batches free from spurious
correlations by matching on the identified source. We provide an
identifiability guarantee of the source of spuriousness and show that our
proposed approach provably samples from a balanced, spurious-free distribution
over all training environments. Experiments are conducted on three computer
vision datasets with documented spurious correlations, demonstrating
empirically that our balanced mini-batch sampling strategy improves the
performance of four different established domain generalization model baselines
compared to the random mini-batch sampling strategy.
- Abstract(参考訳): 機械学習モデルは様々な現実世界のタスクにおいて急速に最先端を推し進める一方、ドメイン外一般化(OOD)は、これらのモデルの脆弱性が相関関係を刺激することを考えると、難しい問題である。
現在のドメイン一般化法は、新しい損失関数設計により、異なるドメインにまたがる特定の不変特性を強制することに注力するが、観測されたトレーニング分布におけるドメイン固有のスプリアス相関を低減するために、バランスのとれたミニバッチサンプリング戦略を提案する。
具体的には,二相法を提案する。
1)スプリアス相関の発生源を特定し,
2) 同一ソースにマッチングすることで, 相関関係のないバランスの取れたミニバッチを構築する。
提案手法は,全てのトレーニング環境において,バランスの取れた,刺激のない分布から,有効にサンプルを採取可能であることを示す。
3つのコンピュータビジョンデータセットでスプリアス相関を文書化した実験を行い、バランスのとれたミニバッチサンプリング戦略が、ランダムなミニバッチサンプリング戦略と比較して、4つの異なる確立されたドメイン一般化モデルのベースラインのパフォーマンスを改善することを実証的に証明した。
関連論文リスト
- Reducing Spurious Correlation for Federated Domain Generalization [15.864230656989854]
オープンワールドのシナリオでは、グローバルモデルは特定のメディアによってキャプチャされた全く新しいドメインデータをうまく予測するのに苦労する可能性がある。
既存の手法はまだこの問題に対処するために、サンプルとラベルの間の強い統計的相関に頼っている。
ローカルレベルとグローバルレベルでの全体的な最適化フレームワークであるFedCDを紹介します。
論文 参考訳(メタデータ) (2024-07-27T05:06:31Z) - Invariant Anomaly Detection under Distribution Shifts: A Causal
Perspective [6.845698872290768]
異常検出(AD、Anomaly Detection)は、異常なサンプルを識別する機械学習タスクである。
分散シフトの制約の下では、トレーニングサンプルとテストサンプルが同じ分布から引き出されるという仮定が崩壊する。
我々は,異常検出モデルのレジリエンスを,異なる種類の分布シフトに高めようとしている。
論文 参考訳(メタデータ) (2023-12-21T23:20:47Z) - Aggregation Weighting of Federated Learning via Generalization Bound
Estimation [65.8630966842025]
フェデレートラーニング(FL)は通常、サンプル比率によって決定される重み付けアプローチを使用して、クライアントモデルパラメータを集約する。
上記の重み付け法を,各局所モデルの一般化境界を考慮した新しい戦略に置き換える。
論文 参考訳(メタデータ) (2023-11-10T08:50:28Z) - Strategic Distribution Shift of Interacting Agents via Coupled Gradient
Flows [6.064702468344376]
実世界のシステムにおける分散シフトのダイナミクスを解析するための新しいフレームワークを提案する。
より単純なモデルでは捉えられない偏極や異なる影響といった、よく文書化された形態の分布シフトを捉える手法を示す。
論文 参考訳(メタデータ) (2023-07-03T17:18:50Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - A Unified Framework for Multi-distribution Density Ratio Estimation [101.67420298343512]
バイナリ密度比推定(DRE)は多くの最先端の機械学習アルゴリズムの基礎を提供する。
ブレグマン最小化の発散の観点から一般的な枠組みを開発する。
我々のフレームワークはバイナリDREでそれらのフレームワークを厳格に一般化する手法に導かれることを示す。
論文 参考訳(メタデータ) (2021-12-07T01:23:20Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。