論文の概要: Semi-Federated Learning
- arxiv url: http://arxiv.org/abs/2003.12795v1
- Date: Sat, 28 Mar 2020 14:08:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 23:28:51.493441
- Title: Semi-Federated Learning
- Title(参考訳): セミフェデレート学習
- Authors: Zhikun Chen, Daofeng Li, Ming Zhao, Sihai Zhang, Jinkang Zhu
- Abstract要約: フェデレートラーニング(FL)は、大規模な分散情報通信技術(ICT)デバイスが、参加者が自身のデータを中央サーバに公開することなく、グローバルコンセンサスモデルを学習できるようにする。
本稿では,ローカルクライアントクラスタリングとクラスタ内トレーニングという2つの面でFLとは異なるセミフェデレートラーニング(セミFL)を提案する。
提案するSemi-FLは、将来のモバイル通信ネットワークに容易に適用でき、アップリンク伝送帯域を少なくすることができる。
- 参考スコア(独自算出の注目度): 4.897245729430157
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) enables massive distributed Information and
Communication Technology (ICT) devices to learn a global consensus model
without any participants revealing their own data to the central server.
However, the practicality, communication expense and non-independent and
identical distribution (Non-IID) data challenges in FL still need to be
concerned. In this work, we propose the Semi-Federated Learning (Semi-FL) which
differs from the FL in two aspects, local clients clustering and in-cluster
training. A sequential training manner is designed for our in-cluster training
in this paper which enables the neighboring clients to share their learning
models. The proposed Semi-FL can be easily applied to future mobile
communication networks and require less up-link transmission bandwidth.
Numerical experiments validate the feasibility, learning performance and the
robustness to Non-IID data of the proposed Semi-FL. The Semi-FL extends the
existing potentials of FL.
- Abstract(参考訳): フェデレートラーニング(FL)は、大規模な分散情報通信技術(ICT)デバイスが、参加者が自身のデータを中央サーバに公開することなく、グローバルコンセンサスモデルを学習できるようにする。
しかし、FLにおける実用性、通信費、非独立で同一の分散(Non-IID)データ課題は依然として考慮する必要がある。
本研究では,ローカルクライアントクラスタリングとクラスタ内トレーニングという2つの面でFLとは異なるセミフェデレートラーニング(セミFL)を提案する。
本稿では,隣のクライアントが学習モデルを共有できるように,クラスタ内トレーニングのための逐次トレーニング手法を提案する。
提案するsemi-flは、将来の移動通信ネットワークに容易に適用でき、アップリンク伝送帯域幅を少なくできる。
数値実験により,提案したセミFLの非IIDデータの有効性,学習性能,ロバスト性を検証した。
Semi-FL は FL の既存のポテンシャルを拡張する。
関連論文リスト
- De-VertiFL: A Solution for Decentralized Vertical Federated Learning [7.877130417748362]
この研究は、分散VFL設定でモデルをトレーニングするための新しいソリューションであるDe-VertiFLを紹介している。
De-VertiFLは、新しいネットワークアーキテクチャディストリビューション、革新的な知識交換スキーム、分散フェデレーショントレーニングプロセスを導入することで貢献する。
その結果、De-VertiFLは一般的にF1スコアのパフォーマンスにおいて最先端のメソッドを上回り、分散化とプライバシ保護のフレームワークを維持していることがわかった。
論文 参考訳(メタデータ) (2024-10-08T15:31:10Z) - MultiConfederated Learning: Inclusive Non-IID Data handling with Decentralized Federated Learning [1.2726316791083532]
Federated Learning (FL) は、機密性のある臨床機械学習のようなユースケースを可能にするための、顕著なプライバシ保護技術として登場した。
FLはデータを所有するリモートデバイスによってトレーニングされたモデルを集約することで動作する。
非IIDデータを扱うために設計された分散FLフレームワークであるMultiConfederated Learningを提案する。
論文 参考訳(メタデータ) (2024-04-20T16:38:26Z) - A Comprehensive Survey of Federated Transfer Learning: Challenges,
Methods and Applications [28.677457598856538]
Federated Learning(FL)は、分散機械学習パラダイムであり、参加者がプライバシ保護を備えた集中型モデルを協調的にトレーニングすることを可能にする。
多くのFL法は、各参加者のトレーニングデータとテストデータが同じ特徴空間と同じ基礎分布からサンプリングされないため、うまく機能しない。
この問題を解決するために、フェデレートトランスファーラーニング(FTL)が多くの研究者の注目を集めている。
論文 参考訳(メタデータ) (2024-03-03T03:52:27Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the Ugly [62.473245910234304]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - PromptFL: Let Federated Participants Cooperatively Learn Prompts Instead
of Models -- Federated Learning in Age of Foundation Model [23.916918530195826]
本稿では,新しいFLフレームワークであるPromptFLを提案する。
PromptFLは市販のFM、すなわちCLIPを、共有ソフトプロンプトを共同で訓練する分散クライアントに出荷する。
本稿では,PromptFLを広範囲な実験により実証的に分析し,システムの実現性,ユーザプライバシ,パフォーマンスの面でその優位性を示す。
論文 参考訳(メタデータ) (2022-08-24T15:50:58Z) - Joint Superposition Coding and Training for Federated Learning over
Multi-Width Neural Networks [52.93232352968347]
本稿では,2つの相乗的技術,フェデレートラーニング(FL)と幅調整可能なスリムブルニューラルネットワーク(SNN)を統合することを目的とする。
FLは、ローカルに訓練されたモバイルデバイスのモデルを交換することによって、データのプライバシを保護している。しかしながら、SNNは、特に時間変化のあるチャネル条件との無線接続下では、非自明である。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2021-12-05T11:17:17Z) - Communication-Efficient Hierarchical Federated Learning for IoT
Heterogeneous Systems with Imbalanced Data [42.26599494940002]
フェデレートラーニング(Federated Learning, FL)は、複数のノードが協調してディープラーニングモデルをトレーニングできる分散ラーニング方法論である。
本稿では,IoTヘテロジニアスシステムにおける階層FLの可能性について検討する。
複数のエッジノード上でのユーザ割り当てとリソース割り当てに最適化されたソリューションを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:32:39Z) - LotteryFL: Personalized and Communication-Efficient Federated Learning
with Lottery Ticket Hypothesis on Non-IID Datasets [52.60094373289771]
フェデレーション学習は、プライバシーを強化した、人気のある分散機械学習パラダイムである。
パーソナライズされたコミュニケーション効率の高いフェデレーション学習フレームワークであるLotteryFLを提案する。
LotteryFLはパーソナライズと通信コストの点で既存のソリューションよりも優れています。
論文 参考訳(メタデータ) (2020-08-07T20:45:12Z) - Wireless Communications for Collaborative Federated Learning [160.82696473996566]
IoT(Internet of Things)デバイスは、収集したデータを中央のコントローラに送信することができず、機械学習モデルをトレーニングすることができる。
GoogleのセミナルFLアルゴリズムでは、すべてのデバイスを中央コントローラに直接接続する必要がある。
本稿では,コラボレーティブFL(CFL)と呼ばれる新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-03T20:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。