論文の概要: FedRE: A Representation Entanglement Framework for Model-Heterogeneous Federated Learning
- arxiv url: http://arxiv.org/abs/2511.22265v1
- Date: Thu, 27 Nov 2025 09:42:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.490045
- Title: FedRE: A Representation Entanglement Framework for Model-Heterogeneous Federated Learning
- Title(参考訳): FedRE: モデル不均一なフェデレーション学習のための表現エンタングルメントフレームワーク
- Authors: Yuan Yao, Lixu Wang, Jiaqi Wu, Jin Song, Simin Chen, Zehua Wang, Zijian Tian, Wei Chen, Huixia Li, Xiaoxiao Li,
- Abstract要約: Federated Representation Entanglement (FedRE) は、クライアント知識の新たな形態を基盤としたフレームワークである。
FedREは、モデルパフォーマンス、プライバシ保護、通信オーバーヘッドの効果的なトレードオフを実現している。
- 参考スコア(独自算出の注目度): 46.7918908485135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) enables collaborative training across clients without compromising privacy. While most existing FL methods assume homogeneous model architectures, client heterogeneity in data and resources renders this assumption impractical, motivating model-heterogeneous FL. To address this problem, we propose Federated Representation Entanglement (FedRE), a framework built upon a novel form of client knowledge termed entangled representation. In FedRE, each client aggregates its local representations into a single entangled representation using normalized random weights and applies the same weights to integrate the corresponding one-hot label encodings into the entangled-label encoding. Those are then uploaded to the server to train a global classifier. During training, each entangled representation is supervised across categories via its entangled-label encoding, while random weights are resampled each round to introduce diversity, mitigating the global classifier's overconfidence and promoting smoother decision boundaries. Furthermore, each client uploads a single cross-category entangled representation along with its entangled-label encoding, mitigating the risk of representation inversion attacks and reducing communication overhead. Extensive experiments demonstrate that FedRE achieves an effective trade-off among model performance, privacy protection, and communication overhead. The codes are available at https://github.com/AIResearch-Group/FedRE.
- Abstract(参考訳): フェデレートラーニング(FL)は、プライバシを損なうことなく、クライアント間で協調的なトレーニングを可能にする。
既存のFL手法の多くは同質なモデルアーキテクチャを仮定するが、データとリソースのクライアントの不均一性は、この仮定を非現実的で動機のないモデル不均質なFLで表す。
この問題に対処するため,我々はFedRE(Federated Representation Entanglement)を提案する。
FedREでは、各クライアントがそのローカル表現を正規化されたランダムな重みを使って単一の絡み合った表現に集約し、対応するワンホットラベルエンコーディングを絡み合ったラベルエンコーディングに統合するために同じ重みを適用している。
それらがサーバにアップロードされ、グローバルな分類器を訓練する。
トレーニング中、各絡み合った表現は、その絡み合ったラベルの符号化を通じてカテゴリ間で管理され、一方、ランダムウェイトは各ラウンドに再サンプリングされ、多様性を導入し、グローバルな分類器の過信を緩和し、よりスムーズな決定境界を促進する。
さらに、各クライアントは、単一のカテゴリ間の絡み合った表現と、その絡み合ったラベルの符号化をアップロードし、表現反転攻撃のリスクを軽減し、通信オーバーヘッドを低減する。
大規模な実験では、FedREがモデルパフォーマンス、プライバシ保護、通信オーバーヘッドの間で効果的なトレードオフを達成している。
コードはhttps://github.com/AIResearch-Group/FedREで公開されている。
関連論文リスト
- FedAPT: Federated Adversarial Prompt Tuning for Vision-Language Models [97.35577473867296]
Federated Adversarial Prompt Tuning (textbfFedAPT)は、FPTの対向性を高めるために設計された新しい手法である。
この問題に対処するために,テキストプロンプトから視覚的なプロンプトを生成するtextbfclass-awareプロンプトジェネレータを提案する。
複数の画像分類データセットの実験は、対向ロバスト性を改善する上でFedAPTの優位性を示している。
論文 参考訳(メタデータ) (2025-09-03T03:46:35Z) - Recovering Global Data Distribution Locally in Federated Learning [7.885010255812708]
Federated Learning(FL)は、複数のクライアント間のコラボレーションを可能にする分散機械学習パラダイムである。
FLにおける大きな課題はラベルの不均衡であり、クライアントは少数派と欠落したクラスを多数持っている間、特定のクラスを独占する可能性がある。
本稿では,この課題に対処するための新しいアプローチであるReGLを提案し,その鍵となる考え方は,グローバルなデータ分布を局所的に検索することである。
論文 参考訳(メタデータ) (2024-09-21T08:35:04Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - FedCME: Client Matching and Classifier Exchanging to Handle Data
Heterogeneity in Federated Learning [5.21877373352943]
クライアント間のデータの均一性は、フェデレートラーニング(FL)における重要な課題の1つです。
クライアントマッチングと分類器交換によりFedCMEという新しいFLフレームワークを提案する。
実験結果から,FedCMEはFedAvg,FedProx,MOON,FedRSよりも高い性能を示した。
論文 参考訳(メタデータ) (2023-07-17T15:40:45Z) - Federated Learning with Intermediate Representation Regularization [14.01585596739954]
フェデレートラーニング(FL)は、リモートクライアントがプライベートデータを公開せずに、協力的にモデルをトレーニングすることを可能にする。
従来の研究では、局所モデルと大域モデルによって学習された表現間の距離を規則化することでこれを達成している。
我々はFedIntRを導入し、中間層の表現を局所的なトレーニングプロセスに統合することで、よりきめ細かい正規化を提供する。
論文 参考訳(メタデータ) (2022-10-28T01:43:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。