論文の概要: Federated Out-of-Distribution Generalization: A Causal Augmentation View
- arxiv url: http://arxiv.org/abs/2504.19882v1
- Date: Mon, 28 Apr 2025 15:13:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.489891
- Title: Federated Out-of-Distribution Generalization: A Causal Augmentation View
- Title(参考訳): Federated Out-of-Distribution Generalization: a Causal Augmentation View
- Authors: Runhui Zhang, Sijin Zhou, Zhuang Qi,
- Abstract要約: 本稿では,Federated Causal Augmentation法であるFederated Causal Augmentation法を提案する。
因果性にインスパイアされたデータ拡張を使用して、属性とカテゴリ間の急激な相関を断ち切る。
3つのデータセットで実施された実験によると、FedCAugはサンプルラベルを予測するために、モデルがバックグラウンドに依存することを著しく削減している。
- 参考スコア(独自算出の注目度): 1.1484701120095695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning aims to collaboratively model by integrating multi-source information to obtain a model that can generalize across all client data. Existing methods often leverage knowledge distillation or data augmentation to mitigate the negative impact of data bias across clients. However, the limited performance of teacher models on out-of-distribution samples and the inherent quality gap between augmented and original data hinder their effectiveness and they typically fail to leverage the advantages of incorporating rich contextual information. To address these limitations, this paper proposes a Federated Causal Augmentation method, termed FedCAug, which employs causality-inspired data augmentation to break the spurious correlation between attributes and categories. Specifically, it designs a causal region localization module to accurately identify and decouple the background and objects in the image, providing rich contextual information for causal data augmentation. Additionally, it designs a causality-inspired data augmentation module that integrates causal features and within-client context to generate counterfactual samples. This significantly enhances data diversity, and the entire process does not require any information sharing between clients, thereby contributing to the protection of data privacy. Extensive experiments conducted on three datasets reveal that FedCAug markedly reduces the model's reliance on background to predict sample labels, achieving superior performance compared to state-of-the-art methods.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、複数のソース情報を統合することで、すべてのクライアントデータにまたがる一般化可能なモデルを得ることを目標とする。
既存の方法は、しばしば知識の蒸留やデータ拡張を利用して、クライアント間のデータバイアスの負の影響を軽減する。
しかし,教師モデルの配布外サンプルに対する性能の制限や,拡張データとオリジナルデータとの質差がそれらの効果を妨げているため,リッチな文脈情報を組み込むことの利点を活用できないのが普通である。
これらの制約に対処するため,FedCAugと呼ばれるFederated Causal Augmentation法を提案する。
具体的には、画像中の背景とオブジェクトを正確に識別し、分離するための因果領域ローカライゼーションモジュールを設計し、因果データ拡張のためのリッチなコンテキスト情報を提供する。
さらに、因果性にインスパイアされたデータ拡張モジュールを設計し、因果的特徴とクライアント内コンテキストを統合して、反現実的なサンプルを生成する。
これによりデータの多様性が大幅に向上し、プロセス全体はクライアント間での情報共有を必要としないため、データのプライバシ保護に寄与する。
3つのデータセットで実施された大規模な実験により、FedCAugはサンプルラベルを予測するためにモデルがバックグラウンドに依存することを著しく低減し、最先端の手法よりも優れたパフォーマンスを実現していることが明らかになった。
関連論文リスト
- Global Intervention and Distillation for Federated Out-of-Distribution Generalization [7.905159090314987]
連合学習における属性スキューは、地元のモデルを非因果関係の学習に集中させる。
本稿では,背景とラベルの急激な関係を断ち切るために,バックドア調整に多様な属性特徴を利用するFedGIDを提案する。
3つのデータセットの実験結果から、FedGIDは、見えないデータで主対象に集中するモデルの能力を向上することを示した。
論文 参考訳(メタデータ) (2025-04-01T14:36:24Z) - Robust Federated Learning in the Face of Covariate Shift: A Magnitude Pruning with Hybrid Regularization Framework for Enhanced Model Aggregation [1.519321208145928]
Federated Learning(FL)は、共有モデルの共同開発を目指す個人に対して、有望なフレームワークを提供する。
クライアント間のデータの分散の変化は、主に集約プロセスの不安定性によって、FL方法論に大きく影響します。
本稿では,個々のパラメータのプルーニングと正規化技術を組み合わせて,個々のクライアントモデルのロバスト性を向上する新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-19T16:22:37Z) - Stable Diffusion-based Data Augmentation for Federated Learning with Non-IID Data [9.045647166114916]
フェデレートラーニング(FL)は、分散的かつ協調的なモデルトレーニングのための有望なパラダイムである。
FLは、非独立分散(Non-IID)データ分散に直面すると、パフォーマンスの大幅な低下と収束性の低下に悩まされる。
我々は、最先端のテキスト・ツー・イメージ基盤モデルの強力な能力を活用する新しいアプローチであるGen-FedSDを紹介する。
論文 参考訳(メタデータ) (2024-05-13T16:57:48Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Federated Knowledge Graph Unlearning via Diffusion Model [5.373752180709173]
フェデレート・ラーニング(FL)は、人工知能技術の開発と応用を促進する。
本稿では,フェデレートされた知識グラフにおける機械学習に適した新しいフレームワークであるFedDMを提案する。
論文 参考訳(メタデータ) (2024-03-13T14:06:51Z) - FedImpro: Measuring and Improving Client Update in Federated Learning [77.68805026788836]
フェデレートラーニング(FL)モデルは、不均一なデータによって引き起こされるクライアントのドリフトを経験することが多い。
我々は、クライアントのドリフトに対する別の視点を示し、改善されたローカルモデルを生成することにより、それを緩和することを目指している。
論文 参考訳(メタデータ) (2024-02-10T18:14:57Z) - FedFed: Feature Distillation against Data Heterogeneity in Federated
Learning [88.36513907827552]
フェデレートラーニング(FL)は通常、データ不均一性、すなわちクライアント間の分散シフトに直面している。
我々はtextbfFederated textbfFeature textbfdistillation (FedFedFed) という新しいアプローチを提案する。
FedFedは、データをパフォーマンスに敏感な機能(すなわち、モデルパフォーマンスに多大な貢献)とパフォーマンスを損なう機能(つまり、モデルパフォーマンスに限られた貢献)に分割する。
総合的な実験は、モデル性能の促進におけるFedFedの有効性を示す。
論文 参考訳(メタデータ) (2023-10-08T09:00:59Z) - Federated Learning Model Aggregation in Heterogenous Aerial and Space Networks [36.283273000969636]
フェデレートラーニング(Federated Learning)は、航空・宇宙ネットワーク(ASN)におけるネットワークとデータプライバシの制約の下で、有望なアプローチである。
本稿では、高多様性クライアントからの更新を強調し、低多様性クライアントからの更新の影響を低減させる新しいフレームワークを提案する。
WeAvgCSはFashionMNISTでは46%,CIFAR10では38%,ベンチマークでは38%の速度で収束することができた。
論文 参考訳(メタデータ) (2023-05-24T21:34:36Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。