論文の概要: Federated Learning via Indirect Server-Client Communications
- arxiv url: http://arxiv.org/abs/2302.07323v1
- Date: Tue, 14 Feb 2023 20:12:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-16 16:36:57.475680
- Title: Federated Learning via Indirect Server-Client Communications
- Title(参考訳): 間接的サーバクライアント通信によるフェデレーション学習
- Authors: Jieming Bian, Cong Shen, Jie Xu
- Abstract要約: Federated Learning(FL)は、コミュニケーション効率とプライバシ保護のための分散機械学習フレームワークである。
本稿では,FedEx という新しい FL フレームワークを提案する。このフレームワークは移動体トランスポーターを用いてサーバとクライアント間の間接的な通信チャネルを確立する。
FedEx-SyncとFedEx-Asyncと呼ばれる2つのアルゴリズムは、トランスポーターが同期または非同期スケジュールを採用するかどうかによって開発される。
- 参考スコア(独自算出の注目度): 20.541942109704987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a communication-efficient and privacy-preserving
distributed machine learning framework that has gained a significant amount of
research attention recently. Despite the different forms of FL algorithms
(e.g., synchronous FL, asynchronous FL) and the underlying optimization
methods, nearly all existing works implicitly assumed the existence of a
communication infrastructure that facilitates the direct communication between
the server and the clients for the model data exchange. This assumption,
however, does not hold in many real-world applications that can benefit from
distributed learning but lack a proper communication infrastructure (e.g.,
smart sensing in remote areas). In this paper, we propose a novel FL framework,
named FedEx (short for FL via Model Express Delivery), that utilizes mobile
transporters (e.g., Unmanned Aerial Vehicles) to establish indirect
communication channels between the server and the clients. Two algorithms,
called FedEx-Sync and FedEx-Async, are developed depending on whether the
transporters adopt a synchronized or an asynchronized schedule. Even though the
indirect communications introduce heterogeneous delays to clients for both the
global model dissemination and the local model collection, we prove the
convergence of both versions of FedEx. The convergence analysis subsequently
sheds lights on how to assign clients to different transporters and design the
routes among the clients. The performance of FedEx is evaluated through
experiments in a simulated network on two public datasets.
- Abstract(参考訳): Federated Learning(FL)は、通信効率が高く、プライバシ保護の分散機械学習フレームワークである。
FLアルゴリズムの様々な形式(例えば、同期FL、非同期FL)と基礎となる最適化手法にもかかわらず、ほとんど全ての既存の作業は、モデルデータ交換のためのサーバとクライアント間の直接通信を容易にする通信インフラの存在を暗黙的に仮定した。
しかし、この仮定は、分散学習の恩恵を受けることができる多くの現実世界のアプリケーションには当てはまらないが、適切な通信インフラ(例えば遠隔地でのスマートセンシング)がない。
本稿では,モバイルトランスポーター(例えば,無人航空機)を利用してサーバとクライアント間の間接的通信チャネルを確立する,fedex(モデル急行配送によるflの略)という新しいflフレームワークを提案する。
FedEx-SyncとFedEx-Asyncと呼ばれる2つのアルゴリズムは、トランスポーターが同期または非同期スケジュールを採用するかどうかによって開発される。
間接通信は,グローバルモデルの普及とローカルモデル収集の両方においてクライアントに不均一な遅延をもたらすが,両バージョンのFedExの収束性を証明する。
コンバージェンス解析はその後、異なるトランスポーターにクライアントを割り当て、クライアント間の経路を設計する方法に光を当てる。
FedExの性能は、2つの公開データセット上のシミュレーションネットワークの実験を通して評価される。
関連論文リスト
- FedMoE-DA: Federated Mixture of Experts via Domain Aware Fine-grained Aggregation [22.281467168796645]
Federated Learning(FL)は、複数のクライアントがプライベートデータを共有せずにモデルをトレーニングできる、コラボレーティブな機械学習アプローチである。
我々は、新しいドメイン認識、きめ細かい集約戦略を取り入れた新しいFLモデルトレーニングフレームワークであるFedMoE-DAを提案し、ロバスト性、パーソナライズ性、通信効率を同時に向上する。
論文 参考訳(メタデータ) (2024-11-04T14:29:04Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Joint Client Assignment and UAV Route Planning for
Indirect-Communication Federated Learning [20.541942109704987]
FedEx (Federated Learning via Model Express Delivery)と呼ばれる新しいフレームワークが提案されている。
UAVのような移動体トランスポーターを使用して、サーバとクライアント間の間接的な通信チャネルを確立する。
FedEx-SyncとFedEx-Asyncという2つのアルゴリズムがトランスポーターレベルで同期および非同期学習のために提案されている。
論文 参考訳(メタデータ) (2023-04-21T04:47:54Z) - Federated Nearest Neighbor Machine Translation [66.8765098651988]
本稿では,FedNN(FedNN)機械翻訳フレームワークを提案する。
FedNNは1ラウンドの記憶に基づくインタラクションを活用して、異なるクライアント間で知識を共有する。
実験の結果,FedAvgと比較して,FedNNは計算コストと通信コストを著しく削減することがわかった。
論文 参考訳(メタデータ) (2023-02-23T18:04:07Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - Accelerating Asynchronous Federated Learning Convergence via Opportunistic Mobile Relaying [3.802258033231335]
本稿では,非同期フェデレート学習(FL)アルゴリズムの収束性能に及ぼすモビリティの影響について検討する。
モビリティを活用することで、クライアントはリレーとして機能する別のクライアントを介して、サーバと間接的に通信できることを示す。
我々はFedMobileと呼ばれる新しいFLアルゴリズムを提案し、機会論的リレーを取り入れ、いつ、どのようにリレーするかといった重要な問題に対処する。
論文 参考訳(メタデータ) (2022-06-09T19:23:20Z) - Double Momentum SGD for Federated Learning [94.58442574293021]
我々は、フェデレート学習におけるモデル性能を改善するために、DOMOと呼ばれる新しいSGD変種を提案する。
1つのモメンタバッファはサーバ更新方向を追跡し、もう1つはローカル更新方向を追跡します。
本稿では,サーバとローカルモーメントSGDを協調する新しいサーバモーメント融合手法を提案する。
論文 参考訳(メタデータ) (2021-02-08T02:47:24Z) - FedAT: A High-Performance and Communication-Efficient Federated Learning
System with Asynchronous Tiers [22.59875034596411]
非i.d.データに基づく非同期タイアを用いた新しいフェデレーション学習手法であるFederated Learning法であるFedATを提案する。
FedATは、収束速度とテスト精度を改善したストラグラー効果を最小化する。
その結果、FedATは予測性能を最大21.09%改善し、最先端FL法と比較して通信コストを最大8.5倍削減した。
論文 参考訳(メタデータ) (2020-10-12T18:38:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。