論文の概要: Robust Federated Learning in Unreliable Wireless Networks: A Client Selection Approach
- arxiv url: http://arxiv.org/abs/2502.17260v1
- Date: Mon, 24 Feb 2025 15:44:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:51:58.820507
- Title: Robust Federated Learning in Unreliable Wireless Networks: A Client Selection Approach
- Title(参考訳): 信頼できない無線ネットワークにおけるロバストフェデレーション学習--クライアント選択アプローチ
- Authors: Yanmeng Wang, Wenkai Ji, Jian Zhou, Fu Xiao, Tsung-Hui Chang,
- Abstract要約: 深層ニューラルネットワーク(DNN)を無線エッジでトレーニングするための、有望な分散学習パラダイムとして、フェデレートラーニング(FL)が登場した。
既存のソリューションは主に、無線リソース最適化戦略を取り入れることでこれらの課題に対処する。
本稿では、信頼できないネットワークにおける送信障害が、ローカルサンプルの効果的なラベル分布を歪める方法に関する、新しい理論的解析を提案する。
- 参考スコア(独自算出の注目度): 26.74684380975705
- License:
- Abstract: Federated learning (FL) has emerged as a promising distributed learning paradigm for training deep neural networks (DNNs) at the wireless edge, but its performance can be severely hindered by unreliable wireless transmission and inherent data heterogeneity among clients. Existing solutions primarily address these challenges by incorporating wireless resource optimization strategies, often focusing on uplink resource allocation across clients under the assumption of homogeneous client-server network standards. However, these approaches overlooked the fact that mobile clients may connect to the server via diverse network standards (e.g., 4G, 5G, Wi-Fi) with customized configurations, limiting the flexibility of server-side modifications and restricting applicability in real-world commercial networks. This paper presents a novel theoretical analysis about how transmission failures in unreliable networks distort the effective label distributions of local samples, causing deviations from the global data distribution and introducing convergence bias in FL. Our analysis reveals that a carefully designed client selection strategy can mitigate biases induced by network unreliability and data heterogeneity. Motivated by this insight, we propose FedCote, a client selection approach that optimizes client selection probabilities without relying on wireless resource scheduling. Experimental results demonstrate the robustness of FedCote in DNN-based classification tasks under unreliable networks with frequent transmission failures.
- Abstract(参考訳): フェデレートラーニング(FL)は、無線エッジでディープニューラルネットワーク(DNN)をトレーニングするための有望な分散学習パラダイムとして登場したが、信頼性の低い無線伝送と、クライアント間の固有のデータ不均一性によって、そのパフォーマンスが著しく阻害される可能性がある。
既存のソリューションは主に、無線リソース最適化戦略を導入することでこれらの課題に対処し、しばしば均質なクライアントサーバネットワーク標準を前提として、クライアント間でのリソース割り当てに重点を置いている。
しかし、これらのアプローチは、モバイルクライアントが様々なネットワーク標準(例えば、4G、5G、Wi-Fi)を介して、カスタマイズされた構成でサーバに接続し、サーバ側の変更の柔軟性を制限し、実際の商用ネットワークにおける適用性を制限できるという事実を見落としていた。
本稿では、信頼できないネットワークにおける送信障害が、ローカルサンプルの有効ラベル分布を歪め、大域的なデータ分布から逸脱し、FLに収束バイアスをもたらす、という新しい理論分析を提案する。
分析の結果,クライアント選択戦略を慎重に設計することで,ネットワークの不確実性とデータの不均一性によるバイアスを軽減できることがわかった。
そこで本研究では,無線リソーススケジューリングに頼ることなく,クライアント選択確率を最適化するクライアント選択手法であるFedCoteを提案する。
実験結果から,DNNに基づく通信障害が頻発する信頼できないネットワーク下での分類タスクにおけるFedCoteのロバスト性を示す。
関連論文リスト
- FedRTS: Federated Robust Pruning via Combinatorial Thompson Sampling [12.067872131025231]
フェデレートラーニング(FL)は、データ共有なしで分散クライアント間で協調的なモデルトレーニングを可能にする。
現在の手法では、疎密性を維持しながらスパースモデルトポロジを周期的に調整することで、動的プルーニングを用いて効率を向上させる。
我々は,堅牢なスパースモデルの開発を目的とした新しいフレームワークであるThompson Sampling (FedRTS) によるフェデレートロバスト刈取を提案する。
論文 参考訳(メタデータ) (2025-01-31T13:26:22Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - BACSA: A Bias-Aware Client Selection Algorithm for Privacy-Preserving Federated Learning in Wireless Healthcare Networks [0.5524804393257919]
本稿では,ユーザのバイアスを検知し,バイアスプロファイルに基づいてクライアントを戦略的に選択するBias-Aware Client Selection Algorithm (BACSA)を提案する。
BACSAは、Quality of Service(QoS)、プライバシ、セキュリティが最重要である、機密性の高い医療アプリケーションに適している。
論文 参考訳(メタデータ) (2024-11-01T21:34:43Z) - Risk-Aware Accelerated Wireless Federated Learning with Heterogeneous
Clients [21.104752782245257]
Wireless Federated Learning (FL)は、分散機械学習のパラダイムである。
本稿では,クライアントが保有するデータ量の不均一性を考慮したリスク認識型FLフレームワークを提案する。
提案されたスキームは、保守的なスキーム(すなわち、信頼できるデバイスのみを許可する)と攻撃的なスキーム(すなわち、信頼度を無視する)に対してベンチマークされる。
論文 参考訳(メタデータ) (2024-01-17T15:15:52Z) - Strategic Client Selection to Address Non-IIDness in HAPS-enabled FL
Networks [24.10349383347469]
本研究では,クライアントデータ分散における非IID性に対処するためのクライアント選択戦略を提案する。
FLトレーニングに参加するためにデータに類似したパターンを示すクライアントを戦略的に選択することにより、より均一で代表的なデータ分布を育成する。
シミュレーションにより、このターゲットとなるクライアント選択手法は、HAPSネットワークにおけるFLモデルのトレーニング損失を著しく低減することが示された。
論文 参考訳(メタデータ) (2024-01-10T18:22:00Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Learning Resilient Radio Resource Management Policies with Graph Neural
Networks [124.89036526192268]
我々は、ユーザ当たりの最小容量制約でレジリエントな無線リソース管理問題を定式化する。
有限個のパラメータ集合を用いてユーザ選択と電力制御ポリシーをパラメータ化できることを示す。
このような適応により,提案手法は平均レートと5番目のパーセンタイルレートとの良好なトレードオフを実現する。
論文 参考訳(メタデータ) (2022-03-07T19:40:39Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - Quantized Federated Learning under Transmission Delay and Outage
Constraints [30.892724364965005]
フェデレートラーニング(Federated Learning)は、無線エッジ内の巨大なモバイルデバイスと協調して機械学習モデルをトレーニングする、実行可能な分散学習パラダイムである。
無線リソースが限られている実用的なシステムでは、多数のモデルパラメータの送信は量子化エラー(QE)と送信停止(TO)に必然的に悩まされる。
我々は,無線リソースと量子化ビットをクライアント間で共同で割り当て,QEを最小化するとともに,クライアントがTO確率を持つようにする,堅牢なFLスキームFedTOEを提案する。
論文 参考訳(メタデータ) (2021-06-17T11:29:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。