論文の概要: FedSDWC: Federated Synergistic Dual-Representation Weak Causal Learning for OOD
- arxiv url: http://arxiv.org/abs/2511.09036v1
- Date: Thu, 13 Nov 2025 01:27:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.367781
- Title: FedSDWC: Federated Synergistic Dual-Representation Weak Causal Learning for OOD
- Title(参考訳): FedSDWC:OODのための相乗的二重表現弱因果学習
- Authors: Zhenyuan Huang, Hui Zhang, Wenzhong Tang, Haijun Yang,
- Abstract要約: 我々は、不変特徴と不変特徴の両方を統合する因果推論法であるFedSDWCを提案する。
FedSDWCは、不変特徴と変分特徴の間の弱い因果影響をモデル化することによって因果意味表現を推論する。
特定の条件下でのFedSDWCの一般化誤差を導出し、クライアントの事前分布との関係を初めて確立する。
- 参考スコア(独自算出の注目度): 4.98054938280313
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Amid growing demands for data privacy and advances in computational infrastructure, federated learning (FL) has emerged as a prominent distributed learning paradigm. Nevertheless, differences in data distribution (such as covariate and semantic shifts) severely affect its reliability in real-world deployments. To address this issue, we propose FedSDWC, a causal inference method that integrates both invariant and variant features. FedSDWC infers causal semantic representations by modeling the weak causal influence between invariant and variant features, effectively overcoming the limitations of existing invariant learning methods in accurately capturing invariant features and directly constructing causal representations. This approach significantly enhances FL's ability to generalize and detect OOD data. Theoretically, we derive FedSDWC's generalization error bound under specific conditions and, for the first time, establish its relationship with client prior distributions. Moreover, extensive experiments conducted on multiple benchmark datasets validate the superior performance of FedSDWC in handling covariate and semantic shifts. For example, FedSDWC outperforms FedICON, the next best baseline, by an average of 3.04% on CIFAR-10 and 8.11% on CIFAR-100.
- Abstract(参考訳): データプライバシと計算インフラの進歩に対する需要が高まっている中、フェデレートラーニング(FL)は顕著な分散ラーニングパラダイムとして現れている。
それでも、データ分散の違い(共変量やセマンティックシフトなど)は、実際のデプロイメントにおける信頼性に大きく影響します。
この問題に対処するために、不変機能と不変機能の両方を統合する因果推論法であるFedSDWCを提案する。
FedSDWCは、不変特徴と不変特徴の間の弱い因果的影響をモデル化することにより因果意味表現を推論し、不変特徴を正確に把握し、因果表現を直接構築する既存の不変学習手法の限界を克服する。
このアプローチは、OODデータを一般化し、検出するFLの能力を著しく向上させる。
理論的には、特定の条件下でのFedSDWCの一般化誤差を導出し、クライアントの事前分布との関係を初めて確立する。
さらに、複数のベンチマークデータセット上で行われた広範な実験は、共変量やセマンティックシフトを扱う際のFedSDWCの優れた性能を検証する。
例えば、FedSDWCはCIFAR-10で平均3.04%、CIFAR-100で平均8.11%、次の最高のベースラインであるFedICONを上回っている。
関連論文リスト
- Domain Adaptation via Feature Refinement [0.3867363075280543]
本稿では,分散シフト下での非教師付きドメイン適応のための簡易かつ効果的なフレームワークであるDAFR(Domain Adaptation via Feature Refinement)を提案する。
提案手法は, ラベルなし対象データを用いたバッチ正規化統計の適応, ソース学習モデルからの特徴蒸留, 仮説伝達の3つの重要な要素を組み合わせた。
論文 参考訳(メタデータ) (2025-08-22T06:32:19Z) - Uncertainty-driven Embedding Convolution [16.523816971857787]
不確実性駆動型埋め込み畳み込み(UEC)を提案する。
UECは決定論的埋め込みをポストホックな方法で確率論的に変換する。
その後、埋め込みの不確実性に基づいて適応アンサンブル重みを計算する。
論文 参考訳(メタデータ) (2025-07-28T11:15:25Z) - Federated Generalised Variational Inference: A Robust Probabilistic Federated Learning Framework [12.454538785810259]
FedGVIは確率的フェデレートラーニング(FL)フレームワークで、事前およびおそらく誤特定に対して堅牢である。
固定点収束、キャビティ分布の最適性、そして確率的不特定性に対する証明可能なロバスト性の観点から理論的解析を行う。
論文 参考訳(メタデータ) (2025-02-02T16:39:37Z) - Boosting the Performance of Decentralized Federated Learning via Catalyst Acceleration [66.43954501171292]
本稿では,Catalytics Accelerationを導入し,DFedCataと呼ばれる促進型分散フェデレート学習アルゴリズムを提案する。
DFedCataは、パラメータの不整合に対処するMoreauエンベロープ関数と、アグリゲーションフェーズを加速するNesterovの外挿ステップの2つの主要コンポーネントで構成されている。
実験により, CIFAR10/100における収束速度と一般化性能の両面において, 提案アルゴリズムの利点を実証した。
論文 参考訳(メタデータ) (2024-10-09T06:17:16Z) - Uncertainty-Based Extensible Codebook for Discrete Federated Learning in Heterogeneous Data Silos [11.443755718706562]
巨大な分散データセットを活用することを目的としたフェデレーション学習は、さまざまなサイロにまたがるデータの均一性という、重要な課題に直面している。
本稿では,emphUncertainty-Based Extensible-Codebook Federated Learning (UEFL)と呼ばれる,革新的で簡単な反復型フレームワークを提案する。
このフレームワークは遅延特徴をトレーニング可能な離散ベクトルに動的にマッピングし、不確実性を評価し、特に不確実性を示すサイロの離散化辞書やコードブックを拡張する。
論文 参考訳(メタデータ) (2024-02-29T06:13:10Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Diagnosing and Rectifying Fake OOD Invariance: A Restructured Causal
Approach [51.012396632595554]
不変表現学習(IRL)は、不変因果的特徴から環境から切り離されたラベルへの予測を促進する。
最近の理論的結果は、IRLによって回復されたいくつかの因果的特徴は、訓練環境ではドメイン不変のふりをするが、目に見えない領域では失敗する。
本研究では,RS-SCMに関する条件付き相互情報に基づく手法を開発し,その効果を巧みに補正する。
論文 参考訳(メタデータ) (2023-12-15T12:58:05Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Accuracy on the Line: On the Strong Correlation Between
Out-of-Distribution and In-Distribution Generalization [89.73665256847858]
分布外性能は,広範囲なモデルと分布シフトに対する分布内性能と強く相関していることを示す。
具体的には,CIFAR-10 と ImageNet の変種に対する分布内分布と分布外分布性能の強い相関関係を示す。
また,CIFAR-10-Cと組織分類データセットCamelyon17-WILDSの合成分布の変化など,相関が弱いケースについても検討した。
論文 参考訳(メタデータ) (2021-07-09T19:48:23Z) - Robust Bayesian Inference for Discrete Outcomes with the Total Variation
Distance [5.139874302398955]
離散的に評価された結果のモデルは、データがゼロインフレーション、過分散または汚染を示す場合、容易に誤特定される。
ここでは、Ttal Variation Distance (TVD) を用いた頑健な相違に基づくベイズ的アプローチを提案する。
我々は、我々のアプローチが堅牢で、シミュレーションおよび実世界のデータの範囲で予測性能を著しく改善していることを実証的に実証した。
論文 参考訳(メタデータ) (2020-10-26T09:53:06Z) - Stochastic-Sign SGD for Federated Learning with Theoretical Guarantees [49.91477656517431]
量子化に基づく解法は、フェデレートラーニング(FL)において広く採用されている。
上記のプロパティをすべて享受する既存のメソッドはありません。
本稿では,SIGNSGDに基づく直感的かつ理論的に簡易な手法を提案し,そのギャップを埋める。
論文 参考訳(メタデータ) (2020-02-25T15:12:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。