論文の概要: Evaluating Multi-Global Server Architecture for Federated Learning
- arxiv url: http://arxiv.org/abs/2311.15382v1
- Date: Sun, 26 Nov 2023 18:55:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 17:53:46.483773
- Title: Evaluating Multi-Global Server Architecture for Federated Learning
- Title(参考訳): フェデレーション学習のためのマルチグローバルサーバアーキテクチャの評価
- Authors: Asfia Kawnine, Hung Cao, Atah Nuh Mih, Monica Wachowicz
- Abstract要約: 本稿では,複数のグローバルサーバのデプロイを活用する新しいフェデレーション学習フレームワークを提案する。
グローバルモデルの予備的な結果は、複数のサーバに起因するパフォーマンスの違いが1%未満であることを示している。
- 参考スコア(独自算出の注目度): 1.338174941551702
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated learning (FL) with a single global server framework is currently a
popular approach for training machine learning models on decentralized
environment, such as mobile devices and edge devices. However, the centralized
server architecture poses a risk as any challenge on the central/global server
would result in the failure of the entire system. To minimize this risk, we
propose a novel federated learning framework that leverages the deployment of
multiple global servers. We posit that implementing multiple global servers in
federated learning can enhance efficiency by capitalizing on local
collaborations and aggregating knowledge, and the error tolerance in regard to
communication failure in the single server framework would be handled. We
therefore propose a novel framework that leverages the deployment of multiple
global servers. We conducted a series of experiments using a dataset containing
the event history of electric vehicle (EV) charging at numerous stations. We
deployed a federated learning setup with multiple global servers and client
servers, where each client-server strategically represented a different region
and a global server was responsible for aggregating local updates from those
devices. Our preliminary results of the global models demonstrate that the
difference in performance attributed to multiple servers is less than 1%. While
the hypothesis of enhanced model efficiency was not as expected, the rule for
handling communication challenges added to the algorithm could resolve the
error tolerance issue. Future research can focus on identifying specific uses
for the deployment of multiple global servers.
- Abstract(参考訳): 単一のグローバルサーバフレームワークによるフェデレーション学習(fl)は現在、モバイルデバイスやエッジデバイスといった分散環境でマシンラーニングモデルをトレーニングするための一般的なアプローチである。
しかしながら、集中型サーバアーキテクチャは、中央/グローバルサーバ上のあらゆる課題がシステム全体の障害を引き起こすため、リスクを負う。
このリスクを最小限に抑えるために,複数のグローバルサーバのデプロイを活用する新しいフェデレーション学習フレームワークを提案する。
フェデレーション学習における複数のグローバルサーバの実装は,局所的なコラボレーションと知識の集約を生かして効率を向上し,単一サーバフレームワークにおける通信障害に対するエラー耐性を処理できることを実証する。
そこで我々は,複数のグローバルサーバの展開を利用する新しいフレームワークを提案する。
複数駅における電気自動車(ev)充電の事象履歴を含むデータセットを用いて,一連の実験を行った。
複数のグローバルサーバとクライアントサーバを連携させて,各クライアントサーバが異なるリージョンを戦略的に表現し,グローバルサーバがそれらのデバイスからローカル更新を集約する役割を担った。
グローバルモデルの予備結果は、複数のサーバに起因するパフォーマンスの差が1%未満であることを示している。
モデル効率が向上するという仮説は期待通りではなかったが、アルゴリズムに付加された通信課題を扱うための規則は、誤り耐性の問題を解決した。
将来の研究は、複数のグローバルサーバをデプロイするための特定の用途を特定することに集中できる。
関連論文リスト
- Asynchronous Multi-Server Federated Learning for Geo-Distributed Clients [4.6792910030704515]
フェデレートラーニング(FL)システムは、複数のクライアントが単一のサーバで中間モデルの重みを同期的に交換することで、機械学習モデルを反復的にトレーニングすることができる。
このようなFLシステムのスケーラビリティは、同期通信によるサーバアイドル時間と、ひとつのサーバがボトルネックになるリスクの2つの要因によって制限することができる。
本稿では,完全に非同期な新しいFLアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-03T15:29:46Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Federated Deep Multi-View Clustering with Global Self-Supervision [51.639891178519136]
フェデレートされたマルチビュークラスタリングは、複数のデバイスに分散したデータからグローバルクラスタリングモデルを学習する可能性がある。
この設定では、ラベル情報は未知であり、データのプライバシを保持する必要がある。
本稿では,複数のクライアントから補完的なクラスタ構造をマイニングできる,新しい多視点クラスタリング手法を提案する。
論文 参考訳(メタデータ) (2023-09-24T17:07:01Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - DYNAFED: Tackling Client Data Heterogeneity with Global Dynamics [60.60173139258481]
非イド分散データに対する局所訓練は、偏向局所最適化をもたらす。
自然な解決策は、サーバがデータ分散全体のグローバルなビューを持つように、すべてのクライアントデータをサーバに収集することです。
本稿では,データプライバシを損なうことなく,サーバ上でのグローバルな知識の収集と活用を図る。
論文 参考訳(メタデータ) (2022-11-20T06:13:06Z) - Handling Data Heterogeneity in Federated Learning via Knowledge
Distillation and Fusion [20.150635780778384]
フェデレートラーニング(FL)は、中央サーバの助けを借りて、複数のデバイスにまたがるグローバル機械学習モデルの分散トレーニングをサポートする。
この問題に対処するため,我々はグローバルな知識融合方式でフェデレーション学習を設計する。
FedKFの主なアイデアは、サーバがグローバルな知識を返却して、各トレーニングラウンドにおけるローカルな知識と融合させることである。
論文 参考訳(メタデータ) (2022-07-23T07:20:22Z) - Federated Two-stage Learning with Sign-based Voting [45.2715985913761]
フェデレートラーニング(Federated Learning)は、ローカルデバイスが共同で共有グローバルモデルをトレーニングする分散機械学習メカニズムである。
最近の大規模でより深い機械学習モデルもまた、連合した環境にそれらをデプロイする上でさらに困難を伴っている。
本稿では,デバイス上のカット層を用いて,原型的フェデレーション学習を増強する2段階学習フレームワークを設計する。
論文 参考訳(メタデータ) (2021-12-10T17:31:23Z) - Multimodal Federated Learning [9.081857621783811]
IoTデバイスを備えたスマートホームなど、多くのアプリケーションでは、クライアント上のローカルデータは、さまざまなモダリティから生成される。
既存のフェデレーション学習システムは、単一のモダリティからのローカルデータのみを扱うため、システムのスケーラビリティが制限される。
本稿では,クライアント上で異なるローカルデータモダリティから共有あるいは相関表現を抽出するよう,オートエンコーダを訓練するマルチモーダル・セミ教師付きフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-10T12:32:46Z) - A New Distributed Method for Training Generative Adversarial Networks [22.339672721348382]
本稿では,分散方式でGANを学習するための新しいフレームワークを提案する。
各デバイスはローカルデータを用いてローカル識別器を計算し、単一のサーバが結果を集計し、グローバルGANを算出する。
3つの一般的なデータセットを用いて得られた数値結果から,提案手法は収束速度の点で最先端のフレームワークより優れていることが示された。
論文 参考訳(メタデータ) (2021-07-19T08:38:10Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z) - Decentralised Learning from Independent Multi-Domain Labels for Person
Re-Identification [69.29602103582782]
ディープラーニングは多くのコンピュータビジョンタスクで成功している。
しかし、プライバシー問題に対する意識の高まりは、特に人物の再識別(Re-ID)において、ディープラーニングに新たな課題をもたらす。
我々は,複数のプライバシ保護されたローカルモデル(ローカルクライアント)を同時に学習することにより,汎用的なグローバルモデル(中央サーバ)を構築するための,フェデレート・パーソナライゼーション(FedReID)と呼ばれる新しいパラダイムを提案する。
このクライアントサーバ共同学習プロセスは、プライバシコントロールの下で反復的に実行されるため、分散データを共有したり、収集したりすることなく、分散学習を実現することができる。
論文 参考訳(メタデータ) (2020-06-07T13:32:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。