論文の概要: BACSA: A Bias-Aware Client Selection Algorithm for Privacy-Preserving Federated Learning in Wireless Healthcare Networks
- arxiv url: http://arxiv.org/abs/2411.01050v1
- Date: Fri, 01 Nov 2024 21:34:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:50:36.230298
- Title: BACSA: A Bias-Aware Client Selection Algorithm for Privacy-Preserving Federated Learning in Wireless Healthcare Networks
- Title(参考訳): BACSA:無線医療ネットワークにおけるプライバシ保護フェデレーション学習のためのバイアス対応クライアント選択アルゴリズム
- Authors: Sushilkumar Yadav, Irem Bor-Yaliniz,
- Abstract要約: 本稿では,ユーザのバイアスを検知し,バイアスプロファイルに基づいてクライアントを戦略的に選択するBias-Aware Client Selection Algorithm (BACSA)を提案する。
BACSAは、Quality of Service(QoS)、プライバシ、セキュリティが最重要である、機密性の高い医療アプリケーションに適している。
- 参考スコア(独自算出の注目度): 0.5524804393257919
- License:
- Abstract: Federated Learning (FL) has emerged as a transformative approach in healthcare, enabling collaborative model training across decentralized data sources while preserving user privacy. However, performance of FL rapidly degrades in practical scenarios due to the inherent bias in non Independent and Identically distributed (non-IID) data among participating clients, which poses significant challenges to model accuracy and generalization. Therefore, we propose the Bias-Aware Client Selection Algorithm (BACSA), which detects user bias and strategically selects clients based on their bias profiles. In addition, the proposed algorithm considers privacy preservation, fairness and constraints of wireless network environments, making it suitable for sensitive healthcare applications where Quality of Service (QoS), privacy and security are paramount. Our approach begins with a novel method for detecting user bias by analyzing model parameters and correlating them with the distribution of class-specific data samples. We then formulate a mixed-integer non-linear client selection problem leveraging the detected bias, alongside wireless network constraints, to optimize FL performance. We demonstrate that BACSA improves convergence and accuracy, compared to existing benchmarks, through evaluations on various data distributions, including Dirichlet and class-constrained scenarios. Additionally, we explore the trade-offs between accuracy, fairness, and network constraints, indicating the adaptability and robustness of BACSA to address diverse healthcare applications.
- Abstract(参考訳): フェデレートラーニング(FL)は医療における変革的なアプローチとして現れ、ユーザのプライバシを保護しながら、分散化されたデータソース間の協調モデルトレーニングを可能にしている。
しかし、FLの性能は、非独立性およびIdentically分布(非IID)データに固有のバイアスがあるため、実用シナリオにおいて急速に低下し、精度と一般化をモデル化する上で大きな課題となる。
そこで本研究では,ユーザのバイアスを検知し,バイアスプロファイルに基づいてクライアントを戦略的に選択するBias-Aware Client Selection Algorithm (BACSA)を提案する。
さらに、提案アルゴリズムは、無線ネットワーク環境のプライバシ保護、公正性、制約を考慮し、Quality of Service(QoS)やプライバシ、セキュリティが最重要となるセンシティブな医療アプリケーションに適している。
提案手法は,モデルパラメータを解析し,クラス固有のデータサンプルの分布と関連付けることによって,ユーザのバイアスを検出する新しい手法から始まる。
次に、検出されたバイアスと無線ネットワーク制約を併用した混合整数非線形クライアント選択問題を定式化し、FL性能を最適化する。
BACSAは,Dirichletやクラス制約のあるシナリオなど,さまざまなデータ分布の評価を通じて,既存のベンチマークと比較して収束率と精度を向上することを示した。
さらに、精度、公平性、ネットワーク制約のトレードオフについて検討し、多様な医療応用に対応するためのBACSAの適応性と堅牢性を示す。
関連論文リスト
- Distributionally Robust Clustered Federated Learning: A Case Study in Healthcare [9.433126190164224]
CS-RCFL(Cross-silo Robust Clustered Federated Learning)と呼ばれる新しいアルゴリズムを導入する。
我々は,各クライアントの経験的分布の周囲にあいまいな集合を構築し,ローカルデータの分布シフトをキャプチャする。
そこで我々は,モデルに依存しない整数分数プログラムを提案し,クライアントの連立への最適分布的ロバストなクラスタリングを決定する。
論文 参考訳(メタデータ) (2024-10-09T16:25:01Z) - Submodular Maximization Approaches for Equitable Client Selection in Federated Learning [4.167345675621377]
従来の学習フレームワークでは、トレーニングのためのクライアント選択は、通常、各イテレーションでクライアントのサブセットをランダムにサンプリングする。
本稿では,ランダムクライアント選択の限界に対処するために,SUBTRUNCとUNIONFLという2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-24T22:40:31Z) - FedCAda: Adaptive Client-Side Optimization for Accelerated and Stable Federated Learning [57.38427653043984]
フェデレートラーニング(FL)は、分散クライアント間の機械学習モデルの協調トレーニングにおいて、顕著なアプローチとして登場した。
我々は,この課題に対処するために設計された,革新的なクライアント適応アルゴリズムであるFedCAdaを紹介する。
我々はFedCAdaが適応性、収束性、安定性、全体的な性能の点で最先端の手法より優れていることを実証する。
論文 参考訳(メタデータ) (2024-05-20T06:12:33Z) - One-Shot Federated Learning with Classifier-Guided Diffusion Models [44.604485649167216]
ワンショット・フェデレーション・ラーニング (OSFL) は, 通信コストの低さから近年注目されている。
本稿では,OSFLに拡散モデルがもたらす新たな機会を探求し,FedCADOを提案する。
FedCADOはクライアントのディストリビューションに準拠したデータを生成し、その後、サーバ上で集約されたモデルをトレーニングします。
論文 参考訳(メタデータ) (2023-11-15T11:11:25Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Personalized Federated Learning via Variational Bayesian Inference [6.671486716769351]
フェデレーション学習は、データ不足とクライアント間の統計的多様性のために、モデル過適合による大きな課題に直面します。
本稿では,pFedBayes というベイズ変分推論を用いた個人化学習手法を提案する。
実験により,提案手法はパーソナライズされたモデルにおいて,他の高度なパーソナライズされた手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-06-16T07:37:02Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Auto-weighted Robust Federated Learning with Corrupted Data Sources [7.475348174281237]
フェデレーション学習はコミュニケーション効率とプライバシ保護のトレーニングプロセスを提供する。
平均損失関数をナイーブに最小化する標準的なフェデレーション学習技術は、データの破損に弱い。
破損したデータソースに対して堅牢性を提供するために、自動重み付けロバストフェデレーテッドラーニング(arfl)を提案します。
論文 参考訳(メタデータ) (2021-01-14T21:54:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。