論文の概要: Mitigating Membership Inference Vulnerability in Personalized Federated Learning
- arxiv url: http://arxiv.org/abs/2503.09414v1
- Date: Wed, 12 Mar 2025 14:10:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:36:18.880653
- Title: Mitigating Membership Inference Vulnerability in Personalized Federated Learning
- Title(参考訳): 個人化フェデレーション学習におけるメンバーシップ推論脆弱性の軽減
- Authors: Kangsoo Jung, Sayan Biswas, Catuscia Palamidessi,
- Abstract要約: フェデレートラーニング(FL)は、クライアントの個人データを共有せずに、協調的なモデルトレーニングのための有望なパラダイムとして登場した。
クラスタリングプロセスにMIAリスクアセスメントを統合するIFCAの改良版であるIFCA-MIRを紹介する。
IFCA-MIRは従来のIFCAと同等のモデル精度と公平性を保ちながらMIAリスクを著しく低減することを示した。
- 参考スコア(独自算出の注目度): 6.260747047974035
- License:
- Abstract: Federated Learning (FL) has emerged as a promising paradigm for collaborative model training without the need to share clients' personal data, thereby preserving privacy. However, the non-IID nature of the clients' data introduces major challenges for FL, highlighting the importance of personalized federated learning (PFL) methods. In PFL, models are trained to cater to specific feature distributions present in the population data. A notable method for PFL is the Iterative Federated Clustering Algorithm (IFCA), which mitigates the concerns associated with the non-IID-ness by grouping clients with similar data distributions. While it has been shown that IFCA enhances both accuracy and fairness, its strategy of dividing the population into smaller clusters increases vulnerability to Membership Inference Attacks (MIA), particularly among minorities with limited training samples. In this paper, we introduce IFCA-MIR, an improved version of IFCA that integrates MIA risk assessment into the clustering process. Allowing clients to select clusters based on both model performance and MIA vulnerability, IFCA-MIR achieves an improved performance with respect to accuracy, fairness, and privacy. We demonstrate that IFCA-MIR significantly reduces MIA risk while maintaining comparable model accuracy and fairness as the original IFCA.
- Abstract(参考訳): フェデレートラーニング(FL)は、クライアントの個人情報を共有せずにコラボレーティブモデルトレーニングのための有望なパラダイムとして登場した。
しかし、クライアントのデータの非IID的な性質はFLに大きな課題をもたらし、パーソナライズされたフェデレーションラーニング(PFL)手法の重要性を強調している。
PFLでは、モデルは人口データに存在する特定の特徴分布に対応するように訓練される。
PFLの注目すべき方法は、Iterative Federated Clustering Algorithm (IFCA) である。
IFCAは精度と公平性の両方を高めることが示されているが、集団を小さなクラスタに分割するという戦略は、特に限られた訓練サンプルを持つマイノリティの間で、MIA(Commanship Inference Attacks)の脆弱性を増大させる。
本稿では,クラスタリングプロセスにMIAリスクアセスメントを統合するIFCA-MIRを提案する。
モデルパフォーマンスとMIA脆弱性の両方に基づいてクライアントがクラスタを選択することができるため、IFCA-MIRは正確性、公正性、プライバシに関するパフォーマンスが改善されている。
IFCA-MIRは従来のIFCAと同等のモデル精度と公平性を保ちながらMIAリスクを著しく低減することを示した。
関連論文リスト
- Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - MIA-BAD: An Approach for Enhancing Membership Inference Attack and its
Mitigation with Federated Learning [6.510488168434277]
メンバシップ推論攻撃(MIA)は、機械学習(ML)モデルのプライバシを妥協するための一般的なパラダイムである。
バッチ・ワイズ・アサート・データセット(MIA-BAD)を用いた強化されたメンバーシップ推論攻撃を提案する。
FLを用いたMLモデルのトレーニング方法を示すとともに,提案したMIA-BADアプローチによる脅威をFLアプローチで緩和する方法について検討する。
論文 参考訳(メタデータ) (2023-11-28T06:51:26Z) - Contrastive encoder pre-training-based clustered federated learning for
heterogeneous data [17.580390632874046]
フェデレートラーニング(FL)は、分散クライアントがデータのプライバシを保持しながら、グローバルモデルを協調的にトレーニングすることを可能にする。
本稿では,モデル収束とFLシステム全体の性能を改善するために,CP-CFL(Contrative Pre-training-based Clustered Federated Learning)を提案する。
論文 参考訳(メタデータ) (2023-11-28T05:44:26Z) - Enabling Quartile-based Estimated-Mean Gradient Aggregation As Baseline
for Federated Image Classifications [5.5099914877576985]
Federated Learning(FL)は、機密データを保護し、モデルパフォーマンスを改善しながら、分散コラボレーションを可能にすることによって、ディープニューラルネットワークのトレーニング方法に革命をもたらした。
本稿では,これらの課題に対処するだけでなく,FLシステムにおける高度な集約技術に対して$mathsfbaseline$として基本的な参照ポイントを提供する,Estimated Mean Aggregation (EMA) という革新的なソリューションを紹介する。
論文 参考訳(メタデータ) (2023-09-21T17:17:28Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - PrivFairFL: Privacy-Preserving Group Fairness in Federated Learning [12.767527195281042]
フェデレートラーニング(FL)におけるグループフェアネスは、偏見を緩和するためには、本質的にすべてのクライアントのセンシティブな属性値を使用する必要があるため、難しい。
FLとセキュアマルチパーティ計算(MPC)と差分プライバシー(DP)を組み合わせることで、FLにおける公平性とプライバシの対立を解消できることを示す。
そこで本研究では,クロスデバイスFLにおけるグループフェアMLモデルを,完全かつ正式なプライバシ保証の下でトレーニングする方法を提案する。
論文 参考訳(メタデータ) (2022-05-23T19:26:12Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。