論文の概要: Multi-Tier Client Selection for Mobile Federated Learning Networks
- arxiv url: http://arxiv.org/abs/2305.06865v1
- Date: Thu, 11 May 2023 15:06:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-12 14:22:50.207238
- Title: Multi-Tier Client Selection for Mobile Federated Learning Networks
- Title(参考訳): モバイルフェデレーション学習ネットワークのための多層クライアント選択
- Authors: Yulan Gao, Yansong Zhao, and Han Yu
- Abstract要約: 本稿では、コストを最小化し、高品質なFLモデルを訓練するために、SocFedCS (Underated UnderlineClient UnderlineSelection) アプローチを提案する。
SocFedCSは、データ所有者がローカルな信頼ネットワークを通じてFLタスク情報を伝達できるようにすることで、候補FLクライアントプールを豊かにする。
- 参考スコア(独自算出の注目度): 13.809694368802827
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL), which addresses data privacy issues by training
models on resource-constrained mobile devices in a distributed manner, has
attracted significant research attention. However, the problem of optimizing FL
client selection in mobile federated learning networks (MFLNs), where devices
move in and out of each others' coverage and no FL server knows all the data
owners, remains open. To bridge this gap, we propose a first-of-its-kind
\underline{Soc}ially-aware \underline{Fed}erated \underline{C}lient
\underline{S}election (SocFedCS) approach to minimize costs and train
high-quality FL models. SocFedCS enriches the candidate FL client pool by
enabling data owners to propagate FL task information through their local
networks of trust, even as devices are moving into and out of each others'
coverage. Based on Lyapunov optimization, we first transform this time-coupled
problem into a step-by-step optimization problem. Then, we design a method
based on alternating minimization and self-adaptive global best harmony search
to solve this mixed-integer optimization problem. Extensive experiments
comparing SocFedCS against five state-of-the-art approaches based on four
real-world multimedia datasets demonstrate that it achieves 2.06\% higher test
accuracy and 12.24\% lower cost on average than the best-performing baseline.
- Abstract(参考訳): リソース制約のあるモバイルデバイス上でのトレーニングモデルによるデータのプライバシ問題に対処するfederated learning(fl)が,研究の注目を集めている。
しかし,モバイル・フェデレーション・ラーニング・ネットワーク(MFLN)におけるFLクライアントの選択を最適化する問題は,デバイスが相互のカバー範囲内を行き来し,FLサーバがすべてのデータ所有者を知らないという問題である。
このギャップを埋めるために、コストを最小化し高品質のFLモデルを訓練するために、第一級のサンダーライン{Soc}ially-aware \underline{Fed}erated \underline{C}lient \underline{S}election (SocFedCS)アプローチを提案する。
socfedcsは、デバイスがお互いのカバレッジ内外へ移動している場合でも、データ所有者が信頼のローカルネットワークを通じてflタスク情報を伝達できるようにすることで、候補のflクライアントプールを強化している。
lyapunov最適化に基づいて,我々はまずこの時間結合問題をステップバイステップ最適化問題に変換する。
次に,この混合整数最適化問題を解くために,交互最小化と自己適応型グローバルベストハーモニー探索に基づく手法を設計する。
SocFedCSを4つの実世界のマルチメディアデータセットに基づく5つの最先端のアプローチと比較した大規模な実験により、テスト精度が2.06\%高く、最高性能のベースラインよりも平均12.24\%低いコストを達成することが示された。
関連論文リスト
- Smart Sampling: Helping from Friendly Neighbors for Decentralized Federated Learning [10.917048408073846]
分散FL(DFL)における近傍のサンプリングと集約のための簡易かつ効率的なアルゴリズムであるAFIND+を導入する。
AFIND+は有用な隣人を識別し、選択された隣人の数を適応的に調整し、サンプルされた隣人のモデルを戦略的に集約する。
実世界のデータセットの数値的な結果は、AFIND+がDFLの他のサンプリングアルゴリズムより優れていることを示している。
論文 参考訳(メタデータ) (2024-07-05T12:10:54Z) - Learner Referral for Cost-Effective Federated Learning Over Hierarchical
IoT Networks [21.76836812021954]
本稿では,連合選択(LRef-FedCS),通信資源,局所モデル精度(LMAO)手法を支援する。
提案したLRef-FedCSアプローチは,高いグローバル精度とコスト削減のバランスをとることができる。
論文 参考訳(メタデータ) (2023-07-19T13:33:43Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Federated Multi-Task Learning under a Mixture of Distributions [10.00087964926414]
Federated Learning(FL)は、機械学習モデルのデバイス上での協調トレーニングのためのフレームワークである。
FLにおける最初の取り組みは、クライアント間で平均的なパフォーマンスを持つ単一のグローバルモデルを学ぶことに焦点を当てたが、グローバルモデルは、与えられたクライアントに対して任意に悪いかもしれない。
我々は,各局所データ分布が未知の基底分布の混合であるというフレキシブルな仮定の下で,フェデレーションMTLについて検討した。
論文 参考訳(メタデータ) (2021-08-23T15:47:53Z) - Communication-Efficient Hierarchical Federated Learning for IoT
Heterogeneous Systems with Imbalanced Data [42.26599494940002]
フェデレートラーニング(Federated Learning, FL)は、複数のノードが協調してディープラーニングモデルをトレーニングできる分散ラーニング方法論である。
本稿では,IoTヘテロジニアスシステムにおける階層FLの可能性について検討する。
複数のエッジノード上でのユーザ割り当てとリソース割り当てに最適化されたソリューションを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:32:39Z) - FedMix: Approximation of Mixup under Mean Augmented Federated Learning [60.503258658382]
フェデレートラーニング(FL)は、エッジデバイスが各デバイス内でデータを直接共有することなく、モデルを集合的に学習することを可能にする。
現在の最先端アルゴリズムは、クライアント間のローカルデータの均一性が増大するにつれて性能劣化に悩まされる。
我々はFedMixという名の新しい拡張アルゴリズムを提案し、これは驚くべきが単純なデータ拡張手法であるMixupにインスパイアされている。
論文 参考訳(メタデータ) (2021-07-01T06:14:51Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - FedProf: Optimizing Federated Learning with Dynamic Data Profiling [9.74942069718191]
フェデレートラーニング(FL)は、分散データから学ぶためのプライバシ保護ソリューションとして大きな可能性を示している。
クライアントの大多数は、バイアス、ノイズ、あるいは無関係な低品質のデータのみを保有している。
本研究では,データプライバシを侵害することなくFLを最適化するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-02T20:10:14Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。