論文の概要: FedOC: Multi-Server FL with Overlapping Client Relays in Wireless Edge Networks
- arxiv url: http://arxiv.org/abs/2509.19398v1
- Date: Tue, 23 Sep 2025 04:53:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.541067
- Title: FedOC: Multi-Server FL with Overlapping Client Relays in Wireless Edge Networks
- Title(参考訳): FedOC: 無線エッジネットワークで重複するクライアントリレーを備えたマルチサーバFL
- Authors: Yun Ji, Zeyu Chen, Xiaoxiong Zhong, Yanan Ma, Sheng Zhang, Yuguang Fang,
- Abstract要約: FedOC(Federated Learning with Overlapping Clients)は、重複するクライアントの可能性を完全に活用するように設計された新しいフレームワークである。
1つはリレーオーバーラップクライアント(ROC)、(2)はノーマルオーバーラップクライアント(NOC)である。
- 参考スコア(独自算出の注目度): 22.630928543174573
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-server Federated Learning (FL) has emerged as a promising solution to mitigate communication bottlenecks of single-server FL. We focus on a typical multi-server FL architecture, where the regions covered by different edge servers (ESs) may overlap. A key observation of this architecture is that clients located in the overlapping areas can access edge models from multiple ESs. Building on this insight, we propose FedOC (Federated learning with Overlapping Clients), a novel framework designed to fully exploit the potential of these overlapping clients. In FedOC, overlapping clients could serve dual roles: (1) as Relay Overlapping Clients (ROCs), they forward edge models between neighboring ESs in real time to facilitate model sharing among different ESs; and (2) as Normal Overlapping Clients (NOCs), they dynamically select their initial model for local training based on the edge model delivery time, which enables indirect data fusion among different regions of ESs. The overall FedOC workflow proceeds as follows: in every round, each client trains local model based on the earliest received edge model and transmits to the respective ESs for model aggregation. Then each ES transmits the aggregated edge model to neighboring ESs through ROC relaying. Upon receiving the relayed models, each ES performs a second aggregation and subsequently broadcasts the updated model to covered clients. The existence of ROCs enables the model of each ES to be disseminated to the other ESs in a decentralized manner, which indirectly achieves intercell model and speeding up the training process, making it well-suited for latency-sensitive edge environments. Extensive experimental results show remarkable performance gains of our scheme compared to existing methods.
- Abstract(参考訳): マルチサーバフェデレートラーニング(FL)は、単一サーバFLの通信ボトルネックを軽減するための有望なソリューションとして登場した。
我々は、異なるエッジサーバ(ES)によってカバーされる領域が重複する、典型的なマルチサーバFLアーキテクチャに焦点を当てる。
このアーキテクチャの重要な観察は、重複する領域にあるクライアントが複数のESからエッジモデルにアクセスできることである。
この知見に基づいて、これらの重複するクライアントの可能性を完全に活用するように設計された新しいフレームワークであるFedOC(Federated Learning with Overlapping Clients)を提案する。
1つはリレーオーバーラップクライアント(ROC)として、隣接するES間でのエッジモデルをリアルタイムで転送し、異なるES間のモデル共有を容易にすること、2は通常のオーバーラップクライアント(NOC)として、エッジモデル配信時間に基づいてローカルトレーニングの初期モデルを動的に選択し、ESの異なる領域間で間接的なデータ融合を可能にする。
すべてのラウンドにおいて、各クライアントは最初期のエッジモデルに基づいてローカルモデルをトレーニングし、モデルアグリゲーションのために各ESに送信する。
次に、各ESは、集約されたエッジモデルをROC中継を介して隣接するESに送信する。
リレーされたモデルを受け取ると、各ESは第2のアグリゲーションを実行し、その後、更新されたモデルをカバークライアントにブロードキャストする。
ROCの存在により、各ESのモデルを他のESに分散的に分散し、間接的にセル間モデルを実現し、トレーニングプロセスを高速化し、遅延に敏感なエッジ環境に適したものにすることができる。
実験結果から,既存手法と比較して,提案手法の顕著な性能向上が示された。
関連論文リスト
- FedMerge: Federated Personalization via Model Merging [51.12769696559237]
1つのグローバルモデルでは、非IIDタスクや分散を多くのクライアントに提供するには不十分かもしれない。
我々は、複数のグローバルモデルをマージするだけで、クライアントごとにパーソナライズされたモデルを作成することができる新しいFedMergeのアプローチを提案する。
我々はFedMergeを、さまざまなタスクとデータタイプを持つ異なるドメインに適用した3つの異なる非IID設定で評価する。
論文 参考訳(メタデータ) (2025-04-09T10:44:14Z) - Byzantine Resilient Federated Multi-Task Representation Learning [1.6114012813668932]
欠陥や悪意のあるエージェントを扱うビザンチン耐性のマルチタスク表現学習フレームワークBR-MTRLを提案する。
このアプローチでは、クライアント固有の最終層を除いて、すべてのクライアントが固定層を共有する、共有ニューラルネットワークモデルによる表現学習を活用しています。
論文 参考訳(メタデータ) (2025-03-24T23:26:28Z) - Towards Seamless Hierarchical Federated Learning under Intermittent Client Participation: A Stagewise Decision-Making Methodology [32.89391397781715]
Hierarchical Federated Learning (HFL)は、クライアントを複数のクラスタにまとめ、中間モデルアグリゲーションにエッジノードを使用する。
HFLに関する現在の研究は主に、安定した固定されたクライアントセットを持つシナリオにおけるモデル精度、レイテンシ、エネルギー消費の向上に焦点を当てている。
本研究は, 断続的クライアント参加下でのHFLにおけるクライアント選択とクライアント間アソシエーションの最適化について検討する。
論文 参考訳(メタデータ) (2025-02-13T13:16:10Z) - Timely Asynchronous Hierarchical Federated Learning: Age of Convergence [59.96266198512243]
クライアント-エッジ-クラウドフレームワークを用いた非同期階層型フェデレーション学習環境について検討する。
クライアントはトレーニングされたパラメータをエッジサーバと交換し、ローカルに集約されたモデルを更新する。
各クライアントの目標は、クライアントのタイムラインを維持しながら、グローバルモデルに収束することだ。
論文 参考訳(メタデータ) (2023-06-21T17:39:16Z) - Federated Learning of Large Models at the Edge via Principal Sub-Model
Training [22.54297471651581]
Federated Learning (FL)は、クライアント間の協調的なトレーニングを可能にする、人気のある、有望な分散型学習フレームワークとして浮上している。
本研究では,PriSM(Principal Sub-model)トレーニング手法を開発し,サーバモデルに対する確率的低ランク近似である小さなサブモデルを各クライアントに割り当てる。
論文 参考訳(メタデータ) (2022-08-28T05:17:03Z) - Improving Privacy-Preserving Vertical Federated Learning by Efficient Communication with ADMM [62.62684911017472]
フェデレートラーニング(FL)により、デバイスは共有モデルを共同でトレーニングし、トレーニングデータをプライバシ目的でローカルに保つことができる。
マルチヘッド(VIM)を備えたVFLフレームワークを導入し、各クライアントの別々のコントリビューションを考慮に入れます。
VIMは最先端技術に比べて性能が著しく向上し、収束が速い。
論文 参考訳(メタデータ) (2022-07-20T23:14:33Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。