論文の概要: Federated Learning: A Cutting-Edge Survey of the Latest Advancements and Applications
- arxiv url: http://arxiv.org/abs/2310.05269v3
- Date: Sun, 26 May 2024 02:37:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 11:49:01.986992
- Title: Federated Learning: A Cutting-Edge Survey of the Latest Advancements and Applications
- Title(参考訳): Federated Learning: 最新の進歩と応用に関するカッティングエッジ調査
- Authors: Azim Akhtarshenas, Mohammad Ali Vahedifar, Navid Ayoobi, Behrouz Maham, Tohid Alizadeh, Sina Ebrahimi, David López-Pérez,
- Abstract要約: Federated Learning(FL)は、堅牢な機械学習(ML)モデルを開発するためのテクニックである。
ユーザのプライバシを保護するため、FLでは、大量の生データや潜在的機密データを送信するのではなく、モデル更新を送信する必要がある。
このサーベイは、最新のFLアルゴリズムの包括的な分析と比較を提供する。
- 参考スコア(独自算出の注目度): 6.042202852003457
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robust machine learning (ML) models can be developed by leveraging large volumes of data and distributing the computational tasks across numerous devices or servers. Federated learning (FL) is a technique in the realm of ML that facilitates this goal by utilizing cloud infrastructure to enable collaborative model training among a network of decentralized devices. Beyond distributing the computational load, FL targets the resolution of privacy issues and the reduction of communication costs simultaneously. To protect user privacy, FL requires users to send model updates rather than transmitting large quantities of raw and potentially confidential data. Specifically, individuals train ML models locally using their own data and then upload the results in the form of weights and gradients to the cloud for aggregation into the global model. This strategy is also advantageous in environments with limited bandwidth or high communication costs, as it prevents the transmission of large data volumes. With the increasing volume of data and rising privacy concerns, alongside the emergence of large-scale ML models like Large Language Models (LLMs), FL presents itself as a timely and relevant solution. It is therefore essential to review current FL algorithms to guide future research that meets the rapidly evolving ML demands. This survey provides a comprehensive analysis and comparison of the most recent FL algorithms, evaluating them on various fronts including mathematical frameworks, privacy protection, resource allocation, and applications. Beyond summarizing existing FL methods, this survey identifies potential gaps, open areas, and future challenges based on the performance reports and algorithms used in recent studies. This survey enables researchers to readily identify existing limitations in the FL field for further exploration.
- Abstract(参考訳): ロバスト機械学習(ML)モデルは、大量のデータを活用し、計算タスクを多数のデバイスやサーバに分散することで開発することができる。
Federated Learning(FL)は、クラウドインフラストラクチャを活用して、分散デバイスネットワーク間の協調的なモデルトレーニングを可能にする、MLの領域におけるテクニックである。
計算負荷の分散以外にも、FLはプライバシー問題の解決と通信コストの削減を同時に目標としています。
ユーザのプライバシを保護するため、FLでは、大量の生データや潜在的機密データを送信するのではなく、モデル更新を送信する必要がある。
具体的には、個人が自身のデータを使ってローカルにMLモデルをトレーニングし、その結果を重みと勾配の形でクラウドにアップロードして、グローバルモデルに集約する。
この戦略は、大規模なデータボリュームの伝送を防止するため、帯域幅の制限や通信コストの高い環境でも有利である。
データの量の増加とプライバシの懸念の高まりに加えて、LLM(Large Language Models)のような大規模MLモデルの出現とともに、FLは自らをタイムリーで関連するソリューションとして提示している。
したがって、急速に進化するML要求を満たす将来の研究を導くために、現在のFLアルゴリズムをレビューすることが不可欠である。
このサーベイは、最近のFLアルゴリズムを包括的に分析し、数学的フレームワーク、プライバシー保護、リソース割り当て、アプリケーションなど様々な面で評価する。
既存のFL法を要約する以外に、近年の研究で使われている性能レポートやアルゴリズムに基づいて、潜在的なギャップ、オープンエリア、今後の課題を特定する。
このサーベイにより、研究者はFLフィールドの既存の制限を簡単に特定し、さらなる探査を行うことができる。
関連論文リスト
- A Survey on Efficient Federated Learning Methods for Foundation Model Training [62.473245910234304]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the Ugly [62.473245910234304]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Automated Federated Learning in Mobile Edge Networks -- Fast Adaptation
and Convergence [83.58839320635956]
フェデレートラーニング(FL)は、モバイルエッジネットワークで機械学習モデルを分散的にトレーニングするために使用することができる。
最近のFLは、モデルに依存しないメタラーニング(MAML)フレームワークで解釈されている。
本稿は,MAMLがFLにもたらすメリットと,モバイルエッジネットワーク上でのメリットの最大化について論じる。
論文 参考訳(メタデータ) (2023-03-23T02:42:10Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Edge-Native Intelligence for 6G Communications Driven by Federated
Learning: A Survey of Trends and Challenges [14.008159759350264]
FL(Federated Learning)と呼ばれる新しい技術は、無線ネットワークの端に機械学習をもたらすために生まれた。
FLは、データプライバシを損なうことなく汎用MLモデルを開発するために、参加するクライアントの分散データセットとコンピューティングリソースの両方を活用する。
本調査の目的は,鍵となる無線技術におけるFL応用の現状を概観することである。
論文 参考訳(メタデータ) (2021-11-14T17:13:34Z) - Federated Learning for Physical Layer Design [38.46522285374866]
Federated Learning (FL) は最近,分散学習スキームとして提案されている。
FLは集中型学習(CL)よりもコミュニケーション効率が高くプライバシーを保ちます。
本稿では,物理層設計問題に対するFLベーストレーニングの最近の進歩について論じる。
論文 参考訳(メタデータ) (2021-02-23T16:22:53Z) - Evaluating the Communication Efficiency in Federated Learning Algorithms [3.713348568329249]
近年,多くの国で新たなプライバシー法が制定され,フェデレートラーニング(FL)の概念が導入されている。
FLでは、モバイルユーザーは、プライバシーに敏感なデータを共有せずに、ローカルモデルを集約することでグローバルモデルを学ぶことができる。
これにより、FLを大規模に実装する際の通信コストの課題が提起される。
論文 参考訳(メタデータ) (2020-04-06T15:31:54Z) - Federated Learning for Resource-Constrained IoT Devices: Panoramas and
State-of-the-art [12.129978716326676]
我々は最近実装されたフェデレートラーニングの現実的な応用をいくつか紹介する。
大規模ネットワークでは、様々な計算資源を持つクライアントが存在するかもしれない。
FL領域における資源制約装置の今後の方向性を強調した。
論文 参考訳(メタデータ) (2020-02-25T01:03:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。