論文の概要: Risk-Aware Accelerated Wireless Federated Learning with Heterogeneous
Clients
- arxiv url: http://arxiv.org/abs/2401.09267v1
- Date: Wed, 17 Jan 2024 15:15:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 15:39:26.766841
- Title: Risk-Aware Accelerated Wireless Federated Learning with Heterogeneous
Clients
- Title(参考訳): 不均一クライアントを用いたリスク認識型ワイヤレスフェデレーション学習
- Authors: Mohamed Ads, Hesham ElSawy and Hossam S. Hassanein
- Abstract要約: Wireless Federated Learning (FL)は、分散機械学習のパラダイムである。
本稿では,クライアントが保有するデータ量の不均一性を考慮したリスク認識型FLフレームワークを提案する。
提案されたスキームは、保守的なスキーム(すなわち、信頼できるデバイスのみを許可する)と攻撃的なスキーム(すなわち、信頼度を無視する)に対してベンチマークされる。
- 参考スコア(独自算出の注目度): 21.104752782245257
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Wireless Federated Learning (FL) is an emerging distributed machine learning
paradigm, particularly gaining momentum in domains with confidential and
private data on mobile clients. However, the location-dependent performance, in
terms of transmission rates and susceptibility to transmission errors, poses
major challenges for wireless FL's convergence speed and accuracy. The
challenge is more acute for hostile environments without a metric that
authenticates the data quality and security profile of the clients. In this
context, this paper proposes a novel risk-aware accelerated FL framework that
accounts for the clients heterogeneity in the amount of possessed data,
transmission rates, transmission errors, and trustworthiness. Classifying
clients according to their location-dependent performance and trustworthiness
profiles, we propose a dynamic risk-aware global model aggregation scheme that
allows clients to participate in descending order of their transmission rates
and an ascending trustworthiness constraint. In particular, the transmission
rate is the dominant participation criterion for initial rounds to accelerate
the convergence speed. Our model then progressively relaxes the transmission
rate restriction to explore more training data at cell-edge clients. The
aggregation rounds incorporate a debiasing factor that accounts for
transmission errors. Risk-awareness is enabled by a validation set, where the
base station eliminates non-trustworthy clients at the fine-tuning stage. The
proposed scheme is benchmarked against a conservative scheme (i.e., only
allowing trustworthy devices) and an aggressive scheme (i.e., oblivious to the
trust metric). The numerical results highlight the superiority of the proposed
scheme in terms of accuracy and convergence speed when compared to both
benchmarks.
- Abstract(参考訳): Wireless Federated Learning(FL)は、新興の分散機械学習パラダイムであり、特にモバイルクライアント上の機密データとプライベートデータを持つドメインで勢いを増している。
しかし、無線FLの収束速度と精度において、送信速度と送信誤差に対する感受性の点で、位置依存性能は大きな課題となる。
この課題は、クライアントのデータ品質とセキュリティプロファイルを認証するメトリクスを使わずに、敵対的な環境ではより深刻である。
本稿では,クライアントが保有するデータ量,送信速度,送信エラー,信頼度などの不均一性を考慮に入れた,新たなリスク認識型FLフレームワークを提案する。
顧客の位置依存的なパフォーマンスと信頼性のプロファイルに基づいてクライアントを分類し,クライアントが送信率の低下や信頼性の上昇を抑えるための動的リスク対応グローバルモデルアグリゲーション方式を提案する。
特に、伝達速度は、収束速度を加速するための初期ラウンドの主導的な参加基準である。
そこで本モデルでは,送信速度制限を段階的に緩和し,セルエッジクライアントでのトレーニングデータを増やす。
集約ラウンドには、送信エラーを考慮したデバイアス係数が組み込まれている。
基地局は、微調整段階で信頼できないクライアントを除外するバリデーションセットにより、リスクアウェアネスを有効にする。
提案されたスキームは、保守的なスキーム(信頼に値するデバイスのみを許可する)と攻撃的なスキーム(信頼基準に従わない)に対してベンチマークされる。
計算結果は,両ベンチマークと比較した場合の精度と収束速度の観点から,提案手法の優位性を強調した。
関連論文リスト
- Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Stochastic Coded Federated Learning with Convergence and Privacy
Guarantees [8.2189389638822]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習フレームワークとして多くの注目を集めている。
本稿では、トラグラー問題を緩和するために、SCFL(Coded Federated Learning)というコード付きフェデレーション学習フレームワークを提案する。
我々は、相互情報差分プライバシー(MI-DP)によるプライバシー保証を特徴付け、連合学習における収束性能を分析する。
論文 参考訳(メタデータ) (2022-01-25T04:43:29Z) - Communication-Efficient Federated Learning with Acceleration of Global
Momentum [46.771459325434535]
フェデレートラーニングはしばしば、参加するクライアントの不均一な特性のために不安定で遅い収束に悩まされる。
本稿では,サーバ側のアグリゲーションステップの安定性を向上させる新しいフェデレーション学習フレームワークを提案する。
本アルゴリズムは,グローバルな更新情報を,追加の通信コストを伴わない参加者に自然に集約し,伝達する。
論文 参考訳(メタデータ) (2022-01-10T05:31:07Z) - FedPrune: Towards Inclusive Federated Learning [1.308951527147782]
フェデレートラーニング(Federated Learning, FL)は、分散データの共有モデルをプライバシ保護形式でトレーニングする分散学習技術である。
我々は,この課題に対処するシステムであるFedPruneを提案する。
Central Limit Theoremからの洞察を利用することで、FedPruneは非IIDデータよりも堅牢なパフォーマンスを実現する新しい集約テクニックを取り入れている。
論文 参考訳(メタデータ) (2021-10-27T06:33:38Z) - Byzantine-robust Federated Learning through Spatial-temporal Analysis of
Local Model Updates [6.758334200305236]
フェデレートラーニング(FL)は、複数の分散クライアント(モバイルデバイスなど)が、クライアントにローカルにトレーニングデータを保持しながら、協調的に集中的なモデルをトレーニングすることを可能にする。
本稿では,これらの障害と攻撃を空間的・時間的観点から緩和することを提案する。
具体的には、パラメータ空間におけるそれらの幾何学的性質を活用することにより、不正な更新を検出し、排除するためにクラスタリングに基づく手法を用いる。
論文 参考訳(メタデータ) (2021-07-03T18:48:11Z) - Quantized Federated Learning under Transmission Delay and Outage
Constraints [30.892724364965005]
フェデレートラーニング(Federated Learning)は、無線エッジ内の巨大なモバイルデバイスと協調して機械学習モデルをトレーニングする、実行可能な分散学習パラダイムである。
無線リソースが限られている実用的なシステムでは、多数のモデルパラメータの送信は量子化エラー(QE)と送信停止(TO)に必然的に悩まされる。
我々は,無線リソースと量子化ビットをクライアント間で共同で割り当て,QEを最小化するとともに,クライアントがTO確率を持つようにする,堅牢なFLスキームFedTOEを提案する。
論文 参考訳(メタデータ) (2021-06-17T11:29:12Z) - Multi-Armed Bandit Based Client Scheduling for Federated Learning [91.91224642616882]
統合学習(FL)は、通信オーバーヘッドの低減やデータのプライバシの保護など、ユビキタスな特性を特徴とする。
FLの各通信ラウンドでは、クライアントは自身のデータに基づいてローカルモデルを更新し、無線チャネル経由でローカル更新をアップロードする。
本研究は、無線チャネルの状態情報やクライアントの統計的特性を知ることなく、FLにおけるオンラインクライアントスケジューリング(CS)のためのマルチアームバンディットベースのフレームワークを提供する。
論文 参考訳(メタデータ) (2020-07-05T12:32:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。