論文の概要: Federated Deconfounding and Debiasing Learning for Out-of-Distribution Generalization
- arxiv url: http://arxiv.org/abs/2505.04979v2
- Date: Sun, 11 May 2025 02:37:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 12:10:05.945751
- Title: Federated Deconfounding and Debiasing Learning for Out-of-Distribution Generalization
- Title(参考訳): アウト・オブ・ディストリビューション・ジェネリゼーションのためのフェデレーション・デコンウンディングとデバイアスング・ラーニング
- Authors: Zhuang Qi, Sijin Zhou, Lei Meng, Han Hu, Han Yu, Xiangxu Meng,
- Abstract要約: 連合学習(FL)における属性バイアスは、典型的には非因果関係の学習により、非矛盾的に局所モデルを最適化する。
本稿では,Underated UnderlineDeconfounding and UnderlineDebiasing UnderlineLearning (FedDDL)法を提案する。
構造化された因果グラフを構築してモデル推論プロセスを分析し、バックドア調整を行い、相反する経路を除去する。
- 参考スコア(独自算出の注目度): 25.181305392387802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attribute bias in federated learning (FL) typically leads local models to optimize inconsistently due to the learning of non-causal associations, resulting degraded performance. Existing methods either use data augmentation for increasing sample diversity or knowledge distillation for learning invariant representations to address this problem. However, they lack a comprehensive analysis of the inference paths, and the interference from confounding factors limits their performance. To address these limitations, we propose the \underline{Fed}erated \underline{D}econfounding and \underline{D}ebiasing \underline{L}earning (FedDDL) method. It constructs a structured causal graph to analyze the model inference process, and performs backdoor adjustment to eliminate confounding paths. Specifically, we design an intra-client deconfounding learning module for computer vision tasks to decouple background and objects, generating counterfactual samples that establish a connection between the background and any label, which stops the model from using the background to infer the label. Moreover, we design an inter-client debiasing learning module to construct causal prototypes to reduce the proportion of the background in prototype components. Notably, it bridges the gap between heterogeneous representations via causal prototypical regularization. Extensive experiments on 2 benchmarking datasets demonstrate that \methodname{} significantly enhances the model capability to focus on main objects in unseen data, leading to 4.5\% higher Top-1 Accuracy on average over 9 state-of-the-art existing methods.
- Abstract(参考訳): 連合学習(FL)における属性バイアスは、典型的には非因果関係の学習によって非矛盾的に最適化され、結果として性能が劣化する。
既存の手法では、サンプルの多様性を高めるためにデータ拡張を利用するか、この問題に対処するために不変表現を学習するために知識蒸留を使用する。
しかし、それらは推論パスの包括的解析を欠いているため、共起要因からの干渉によって性能が制限される。
これらの制約に対処するために、 \underline{Fed}erated \underline{D}econfounding と \underline{D}ebiasing \underline{L}earning (FedDDL) 法を提案する。
構造化された因果グラフを構築してモデル推論プロセスを分析し、バックドア調整を行い、相反する経路を除去する。
具体的には,コンピュータビジョンタスクにおいて,背景と対象を分離し,背景とラベルとの接続を確立する反ファクト的なサンプルを生成し,そのモデルが背景を用いてラベルを推測することを阻止する,クライアント内分解学習モジュールを設計する。
さらに,プロトタイプコンポーネントの背景の比率を低減するために,因果プロトタイプを構築するために,クライアント間偏り学習モジュールを設計する。
特に、因果的原型正規化によって不均一表現の間のギャップを埋める。
2つのベンチマークデータセットに対する大規模な実験により、‘methodname{}’は、目に見えないデータ内のメインオブジェクトにフォーカスするモデル能力を著しく向上し、9つの最先端の既存メソッドの平均で、Top-1の精度が4.5\%向上することを示した。
関連論文リスト
- Global Intervention and Distillation for Federated Out-of-Distribution Generalization [7.905159090314987]
連合学習における属性スキューは、地元のモデルを非因果関係の学習に集中させる。
本稿では,背景とラベルの急激な関係を断ち切るために,バックドア調整に多様な属性特徴を利用するFedGIDを提案する。
3つのデータセットの実験結果から、FedGIDは、見えないデータで主対象に集中するモデルの能力を向上することを示した。
論文 参考訳(メタデータ) (2025-04-01T14:36:24Z) - FedSA: A Unified Representation Learning via Semantic Anchors for Prototype-based Federated Learning [4.244188591221394]
本稿では,FedSA(Federated Learning via Semantic Anchors)という新しいフレームワークを提案する。
FedSAは、様々な分類タスクにおいて、既存のプロトタイプベースのFLメソッドを著しく上回っている。
論文 参考訳(メタデータ) (2025-01-09T16:10:03Z) - A Plug-and-Play Method for Rare Human-Object Interactions Detection by Bridging Domain Gap [50.079224604394]
textbfContext-textbfEnhanced textbfFeature textbfAment (CEFA) と呼ばれる新しいモデルに依存しないフレームワークを提案する。
CEFAは機能アライメントモジュールとコンテキスト拡張モジュールで構成される。
本手法は, 稀なカテゴリにおけるHOIモデルの検出性能を向上させるために, プラグアンドプレイモジュールとして機能する。
論文 参考訳(メタデータ) (2024-07-31T08:42:48Z) - Decoupled Prototype Learning for Reliable Test-Time Adaptation [50.779896759106784]
テスト時間適応(TTA)は、推論中にトレーニング済みのソースモデルをターゲットドメインに継続的に適応させるタスクである。
1つの一般的なアプローチは、推定擬似ラベルによるクロスエントロピー損失を伴う微調整モデルである。
本研究は, 各試料の分類誤差を最小化することで, クロスエントロピー損失の脆弱性がラベルノイズを引き起こすことを明らかにした。
本稿では,プロトタイプ中心の損失計算を特徴とする新しいDPL法を提案する。
論文 参考訳(メタデータ) (2024-01-15T03:33:39Z) - TDCGL: Two-Level Debiased Contrastive Graph Learning for Recommendation [1.5836776102398225]
実世界におけるKGの実体の長期分布とノイズ問題により、アイテム・エンティリティ依存関係は真の特性を反映しない。
我々はTDCL(Two-Level Debiased Contrastive Learning)を設計し、知識グラフに展開する。
オープンソースデータセットに関する検討実験により,提案手法は優れたアンチノイズ性能を有することが示された。
論文 参考訳(メタデータ) (2023-10-01T03:56:38Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Towards Understanding and Mitigating Dimensional Collapse in Heterogeneous Federated Learning [112.69497636932955]
フェデレートラーニングは、プライバシを考慮したデータ共有を必要とせずに、さまざまなクライアントでモデルをトレーニングすることを目的としている。
本研究では,データの不均一性がグローバル集約モデルの表現に与える影響について検討する。
フェデレーション学習における次元的崩壊を効果的に緩和する新しい手法である sc FedDecorr を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。