論文の概要: Decentralized Federated Learning: A Survey and Perspective
- arxiv url: http://arxiv.org/abs/2306.01603v1
- Date: Fri, 2 Jun 2023 15:12:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 14:30:31.947219
- Title: Decentralized Federated Learning: A Survey and Perspective
- Title(参考訳): 分散連帯学習 : 調査と展望
- Authors: Liangqi Yuan and Lichao Sun and Philip S. Yu and Ziran Wang
- Abstract要約: 分散FL(DFL)は、中央サーバーを必要としない分散ネットワークアーキテクチャである。
DFLはクライアント間の直接通信を可能にし、通信リソースの大幅な節約をもたらす。
- 参考スコア(独自算出の注目度): 66.53979312941439
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) has been gaining attention for its ability to share
knowledge while maintaining user data, protecting privacy, increasing learning
efficiency, and reducing communication overhead. Decentralized FL (DFL) is a
decentralized network architecture that eliminates the need for a central
server in contrast to centralized FL (CFL). DFL enables direct communication
between clients, resulting in significant savings in communication resources.
In this paper, a comprehensive survey and profound perspective is provided for
DFL. First, a review of the methodology, challenges, and variants of CFL is
conducted, laying the background of DFL. Then, a systematic and detailed
perspective on DFL is introduced, including iteration order, communication
protocols, network topologies, paradigm proposals, and temporal variability.
Next, based on the definition of DFL, several extended variants and
categorizations are proposed with state-of-the-art technologies. Lastly, in
addition to summarizing the current challenges in the DFL, some possible
solutions and future research directions are also discussed.
- Abstract(参考訳): 連合学習(federated learning, ffl)は,ユーザデータを維持しながら知識を共有する能力,プライバシ保護,学習効率の向上,コミュニケーションオーバーヘッドの低減など,多くの注目を集めている。
Decentralized FL (DFL) は、集中型 FL (CFL) とは対照的に、中央サーバーを必要としない分散ネットワークアーキテクチャである。
dflはクライアント間の直接通信を可能にし、通信リソースを大幅に節約する。
本稿では,DFLに対する総合的な調査と深い視点について述べる。
まず, CFLの方法論, 課題, 変種について概観し, DFLの背景を概観する。
次に,反復順序,通信プロトコル,ネットワークトポロジ,パラダイム提案,時間変動など,dflの体系的かつ詳細な展望を紹介する。
次に、DFLの定義に基づいて、いくつかの拡張された変種と分類を最先端技術で提案する。
最後に、DFLにおける現在の課題の要約に加えて、いくつかの解決策と今後の研究方向性についても論じる。
関連論文リスト
- Communication Resources Constrained Hierarchical Federated Learning for
End-to-End Autonomous Driving [67.78611905156808]
本稿では,最適化に基づくコミュニケーションリソース制約付き階層型学習フレームワークを提案する。
その結果,提案したCRCHFLは収束速度を加速し,フェデレーション学習自律運転モデルの一般化を促進することがわかった。
論文 参考訳(メタデータ) (2023-06-28T12:44:59Z) - Bayesian Federated Learning: A Survey [54.40136267717288]
フェデレートラーニング(FL)は、分散インフラストラクチャ、コミュニケーション、コンピューティング、学習をプライバシ保護の方法で統合する際の利点を示している。
既存のFL手法のロバスト性と能力は、制限された動的データと条件によって挑戦される。
BFLはこれらの問題に対処するための有望なアプローチとして登場した。
論文 参考訳(メタデータ) (2023-04-26T03:41:17Z) - Decentralized Federated Learning: Fundamentals, State of the Art,
Frameworks, Trends, and Challenges [0.0]
フェデレートラーニング(FL)は、機密データを共有せずに協調モデルのトレーニングに関連がある。
分散フェデレートラーニング(DFL)は、分散モデルアグリゲーションを促進することでこれらの問題に対処する。
本稿では,DFLの主な基礎を,フェデレーションアーキテクチャ,トポロジ,通信機構,セキュリティアプローチ,キーパフォーマンス指標の観点から同定し,解析する。
論文 参考訳(メタデータ) (2022-11-15T18:51:20Z) - How Much Does It Cost to Train a Machine Learning Model over Distributed
Data Sources? [4.222078489059043]
フェデレーション学習は、デバイスが生データを共有せずに機械学習モデルをトレーニングすることを可能にする。
ゴシップフェデレーションラーニング(GFL)やブロックチェーン対応フェデレーションラーニング(BFL)のようなサーバーレスFLアプローチは、これらの問題を緩和するために提案されている。
GFLはトレーニング時間の18%、エネルギーの68%、データをCFLソリューションで共有する51%を節約できるが、CFLの精度に達することはできない。
BFLは、余分なエネルギー使用とデータ共有を犠牲にして、より高いレベルのセキュリティで分散学習を実装するための実行可能なソリューションである。
論文 参考訳(メタデータ) (2022-09-15T08:13:40Z) - FedComm: Federated Learning as a Medium for Covert Communication [56.376997104843355]
フェデレートラーニング(FL)は、ディープラーニングの採用に伴うプライバシーへの影響を軽減するためのソリューションである。
本稿では,FL方式の通信能力について詳しく検討する。
我々は,新しいマルチシステム被覆通信技術であるFedCommを紹介する。
論文 参考訳(メタデータ) (2022-01-21T17:05:56Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - Decentralized Federated Learning: Balancing Communication and Computing
Costs [21.694468026280806]
分散統合学習(DFL)は分散機械学習の強力なフレームワークである。
本稿では,コミュニケーション効率と収束性能のバランスをとるための汎用的な分散化フェデレーション学習フレームワークを提案する。
MNISTとCIFAR-10データセットに基づく実験結果は、従来の分散SGD法よりもDFLの方が優れていることを示している。
論文 参考訳(メタデータ) (2021-07-26T09:09:45Z) - Towards Personalized Federated Learning [20.586573091790665]
PFL手法をデータベースおよびモデルベースアプローチに分割するユニークな分類法を提案する。
我々は、その重要なアイデアを強調し、新しいpflアーキテクチャ設計に向けた研究の将来の展望を期待する。
論文 参考訳(メタデータ) (2021-03-01T02:45:19Z) - Wireless Communications for Collaborative Federated Learning [160.82696473996566]
IoT(Internet of Things)デバイスは、収集したデータを中央のコントローラに送信することができず、機械学習モデルをトレーニングすることができる。
GoogleのセミナルFLアルゴリズムでは、すべてのデバイスを中央コントローラに直接接続する必要がある。
本稿では,コラボレーティブFL(CFL)と呼ばれる新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-03T20:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。