論文の概要: FedDis: A Causal Disentanglement Framework for Federated Traffic Prediction
- arxiv url: http://arxiv.org/abs/2601.22578v1
- Date: Fri, 30 Jan 2026 05:20:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.241481
- Title: FedDis: A Causal Disentanglement Framework for Federated Traffic Prediction
- Title(参考訳): FedDis: フェデレーショントラフィック予測のための因果ディスタングルフレームワーク
- Authors: Chengyang Zhou, Zijian Zhang, Chunxu Zhang, Hao Miao, Yulin Zhang, Kedi Lyu, Juncheng Hu,
- Abstract要約: 我々は,フェデレーション型空間時間予測のための新しいフレームワークであるFedDisを紹介する。
我々はFedDisが常に最先端のパフォーマンスデータセット、有望な効率、優れた拡張性を実現していることを示す。
- 参考スコア(独自算出の注目度): 14.618528630951579
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning offers a promising paradigm for privacy-preserving traffic prediction, yet its performance is often challenged by the non-identically and independently distributed (non-IID) nature of decentralized traffic data. Existing federated methods frequently struggle with this data heterogeneity, typically entangling globally shared patterns with client-specific local dynamics within a single representation. In this work, we postulate that this heterogeneity stems from the entanglement of two distinct generative sources: client-specific localized dynamics and cross-client global spatial-temporal patterns. Motivated by this perspective, we introduce FedDis, a novel framework that, to the best of our knowledge, is the first to leverage causal disentanglement for federated spatial-temporal prediction. Architecturally, FedDis comprises a dual-branch design wherein a Personalized Bank learns to capture client-specific factors, while a Global Pattern Bank distills common knowledge. This separation enables robust cross-client knowledge transfer while preserving high adaptability to unique local environments. Crucially, a mutual information minimization objective is employed to enforce informational orthogonality between the two branches, thereby ensuring effective disentanglement. Comprehensive experiments conducted on four real-world benchmark datasets demonstrate that FedDis consistently achieves state-of-the-art performance, promising efficiency, and superior expandability.
- Abstract(参考訳): フェデレートラーニングは、プライバシを保存するトラフィック予測のための有望なパラダイムを提供するが、そのパフォーマンスは、分散化されたトラフィックデータの非ID的かつ独立に分散された(非IID)性質によってしばしば疑問視される。
既存のフェデレーションされたメソッドは、このデータの不均一性にしばしば苦労します。
本研究では, この異種性は, クライアント固有の局所的ダイナミクスと, グローバル空間時間パターンという, 2つの異なる生成源の絡み合いに由来すると仮定する。
この観点から、我々はFedDisという新しいフレームワークを紹介し、このフレームワークは、我々の知る限り、フェデレーションされた空間的時間的予測に因果的絡みを最初に活用するものである。
アーキテクチャ的には、FedDisはデュアルブランチの設計で、パーソナライズドバンクはクライアント固有の要因を捉え、グローバルパターンバンクは共通知識を抽出する。
この分離により、ユニークなローカル環境への高い適応性を保ちながら、堅牢なクロスクライアントな知識伝達が可能になる。
重要なことは、2つの枝間の情報直交を強制するため、相互情報の最小化目的が採用され、効果的に絡み合うことが保証される。
4つの実世界のベンチマークデータセットで実施された総合的な実験は、FedDisが一貫して最先端のパフォーマンス、有望な効率、優れた拡張性を実現していることを示している。
関連論文リスト
- Fed-REACT: Federated Representation Learning for Heterogeneous and Evolving Data [19.33095080645165]
Fed-REACTは、異種および進化するクライアントデータ用に設計されたフェデレート学習フレームワークである。
本稿では,表現学習段階の理論解析を行い,実世界のデータセットにおいてFed-REACTが優れた精度とロバスト性を達成することを実証した。
論文 参考訳(メタデータ) (2025-09-08T20:24:40Z) - FedSC: Federated Learning with Semantic-Aware Collaboration [12.366529890744822]
フェデレートラーニング(FL)は、プライバシ保護のためのデータを共有することなく、クライアント間で協調的にモデルをトレーニングすることを目的としている。
不均一なクライアント間でクライアント固有のクラス関連知識を収集するために,FedSC(Federated Learning with Semantic-Aware Collaboration)を提案する。
論文 参考訳(メタデータ) (2025-06-26T05:04:55Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FedP3: Federated Personalized and Privacy-friendly Network Pruning under Model Heterogeneity [82.5448598805968]
我々は、フェデレートされたパーソナライズされたプライバシフレンドリーなネットワークプルーニングを表現する、効果的で適応可能なフェデレーションフレームワークであるFedP3を提案する。
我々は、FedP3とその局所微分プライベート変種DP-FedP3の理論解釈を提供し、それらの効率を理論的に検証する。
論文 参考訳(メタデータ) (2024-04-15T14:14:05Z) - FedLoGe: Joint Local and Generic Federated Learning under Long-tailed
Data [46.29190753993415]
Federated Long-Tailed Learning (Fed-LT)は、分散化されたローカルクライアントから収集されたデータが、グローバルに普及しているロングテール分布を示すパラダイムである。
本稿では、Fed-LT(FedLoGe)におけるFederated Local and Generic Model Training(FedLoGe)というアプローチを紹介し、ローカルモデルとジェネリックモデルの両方のパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-01-17T05:04:33Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Momentum Benefits Non-IID Federated Learning Simply and Provably [22.800862422479913]
フェデレートラーニングは大規模機械学習の強力なパラダイムである。
FedAvgとSCAFFOLDは、これらの課題に対処する2つの顕著なアルゴリズムである。
本稿では,FedAvgとSCAFFOLDの性能向上のための運動量の利用について検討する。
論文 参考訳(メタデータ) (2023-06-28T18:52:27Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。