論文の概要: Federated Learning Model Aggregation in Heterogenous Aerial and Space Networks
- arxiv url: http://arxiv.org/abs/2305.16351v2
- Date: Tue, 9 Apr 2024 23:55:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-11 19:45:16.809975
- Title: Federated Learning Model Aggregation in Heterogenous Aerial and Space Networks
- Title(参考訳): 航空・宇宙ネットワークにおけるフェデレーション学習モデルアグリゲーション
- Authors: Fan Dong, Ali Abbasi, Steve Drew, Henry Leung, Xin Wang, Jiayu Zhou,
- Abstract要約: フェデレートラーニング(Federated Learning)は、航空・宇宙ネットワーク(ASN)におけるネットワークとデータプライバシの制約の下で、有望なアプローチである。
本稿では、高多様性クライアントからの更新を強調し、低多様性クライアントからの更新の影響を低減させる新しいフレームワークを提案する。
WeAvgCSはFashionMNISTでは46%,CIFAR10では38%,ベンチマークでは38%の速度で収束することができた。
- 参考スコア(独自算出の注目度): 36.283273000969636
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning offers a promising approach under the constraints of networking and data privacy constraints in aerial and space networks (ASNs), utilizing large-scale private edge data from drones, balloons, and satellites. Existing research has extensively studied the optimization of the learning process, computing efficiency, and communication overhead. An important yet often overlooked aspect is that participants contribute predictive knowledge with varying diversity of knowledge, affecting the quality of the learned federated models. In this paper, we propose a novel approach to address this issue by introducing a Weighted Averaging and Client Selection (WeiAvgCS) framework that emphasizes updates from high-diversity clients and diminishes the influence of those from low-diversity clients. Direct sharing of the data distribution may be prohibitive due to the additional private information that is sent from the clients. As such, we introduce an estimation for the diversity using a projection-based method. Extensive experiments have been performed to show WeiAvgCS's effectiveness. WeiAvgCS could converge 46% faster on FashionMNIST and 38% faster on CIFAR10 than its benchmarks on average in our experiments.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、航空・宇宙ネットワーク(ASN)におけるネットワークとデータプライバシの制約の下で、ドローン、気球、衛星からの大規模プライベートエッジデータを活用する、有望なアプローチを提供する。
既存の研究は、学習プロセスの最適化、計算効率、通信オーバーヘッドを幅広く研究してきた。
重要かつしばしば見落とされがちな側面は、参加者が様々な知識で予測的知識を貢献し、学習されたフェデレーションモデルの品質に影響を与えることである。
本稿では、高多様性クライアントからの更新を強調し、低多様性クライアントからのクライアントの影響を小さくするWeiAvgCS(Weighted Averaging and Client Selection)フレームワークを導入することにより、この問題に対処する新しいアプローチを提案する。
データ配布の直接の共有は、クライアントから送られた追加のプライベート情報のために禁止される可能性がある。
そこで,提案手法を用いて多様性を推定する手法を提案する。
WeiAvgCSの有効性を示す大規模な実験が行われた。
WeiAvgCSはFashionMNISTで46%、CIFAR10で38%の速度で収束できる。
関連論文リスト
- Optimizing Federated Learning by Entropy-Based Client Selection [13.851391819710367]
ディープラーニングドメインは通常、最適なパフォーマンスのために大量のデータを必要とします。
FedOptEntは、ラベル配布スキューによるパフォーマンスの問題を軽減するように設計されている。
提案手法は,最先端のアルゴリズムを最大6%の精度で高速化する。
論文 参考訳(メタデータ) (2024-11-02T13:31:36Z) - Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - SPATL: Salient Parameter Aggregation and Transfer Learning for
Heterogeneous Clients in Federated Learning [3.5394650810262336]
効率的なフェデレーション学習は、エッジデバイス上でAIモデルをトレーニングしデプロイする上で重要な課題の1つだ。
フェデレーション学習におけるデータのプライバシの維持は、データの均一性、高価な通信コスト、限られたリソースなど、いくつかの課題を引き起こす。
本稿では,ローカルクライアントの深層強化学習に基づく有能なパラメータ選択エージェントを提案し,選択した有能なパラメータを中央サーバに集約する。
論文 参考訳(メタデータ) (2021-11-29T06:28:05Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - CatFedAvg: Optimising Communication-efficiency and Classification
Accuracy in Federated Learning [2.2172881631608456]
そこで我々はCatFedAvgというフェデレート学習アルゴリズムを新たに導入した。
コミュニケーション効率は向上するが、NIST戦略のカテゴリカバレッジを用いて学習の質を向上させる。
実験の結果,FedAvgよりもネットワーク転送率が70%低いMデータセットでは,10%の絶対点精度が向上していることがわかった。
論文 参考訳(メタデータ) (2020-11-14T06:52:02Z) - A Theoretical Perspective on Differentially Private Federated Multi-task
Learning [12.935153199667987]
プライバシーとユーティリティの両方に関して、協調学習モデルを開発する必要がある。
本稿では,クライアントレベルで保護する効果的なパラメータ転送差分プライバシーのための,新しいフェデレーションマルチタスクを提案する。
このような提案されたアルゴリズムに対して、プライバシユーティリティの両方の保証を提供するのは、当社が初めてです。
論文 参考訳(メタデータ) (2020-11-14T00:53:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。