論文の概要: SRFed: Mitigating Poisoning Attacks in Privacy-Preserving Federated Learning with Heterogeneous Data
- arxiv url: http://arxiv.org/abs/2602.16480v1
- Date: Wed, 18 Feb 2026 14:14:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.608882
- Title: SRFed: Mitigating Poisoning Attacks in Privacy-Preserving Federated Learning with Heterogeneous Data
- Title(参考訳): SRFed: プライバシー保護のためのフェデレーション学習における不正行為の軽減
- Authors: Yiwen Lu,
- Abstract要約: Federated Learning (FL)は、クライアントのプライベートデータを公開せずに協調的なモデルトレーニングを可能にし、プライバシに敏感なシナリオで広く採用されている。
クライアントのプライベートデータを再構築する推論攻撃を起動する好奇心の強いサーバと、モデルアグリゲーションを妨害するために有害な攻撃を起動するクライアントだ。
我々は,非IIDシナリオのための効率的なビザンチン汚染とプライバシー保護のためのFLフレームワークであるSRFedを提案する。
- 参考スコア(独自算出の注目度): 5.7335377562335275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) enables collaborative model training without exposing clients' private data, and has been widely adopted in privacy-sensitive scenarios. However, FL faces two critical security threats: curious servers that may launch inference attacks to reconstruct clients' private data, and compromised clients that can launch poisoning attacks to disrupt model aggregation. Existing solutions mitigate these attacks by combining mainstream privacy-preserving techniques with defensive aggregation strategies. However, they either incur high computation and communication overhead or perform poorly under non-independent and identically distributed (Non-IID) data settings. To tackle these challenges, we propose SRFed, an efficient Byzantine-robust and privacy-preserving FL framework for Non-IID scenarios. First, we design a decentralized efficient functional encryption (DEFE) scheme to support efficient model encryption and non-interactive decryption. DEFE also eliminates third-party reliance and defends against server-side inference attacks. Second, we develop a privacy-preserving defensive model aggregation mechanism based on DEFE. This mechanism filters poisonous models under Non-IID data by layer-wise projection and clustering-based analysis. Theoretical analysis and extensive experiments show that SRFed outperforms state-of-the-art baselines in privacy protection, Byzantine robustness, and efficiency.
- Abstract(参考訳): Federated Learning (FL)は、クライアントのプライベートデータを公開せずに協調的なモデルトレーニングを可能にし、プライバシに敏感なシナリオで広く採用されている。
しかし、FLは2つの重要なセキュリティ上の脅威に直面している。クライアントのプライベートデータを再構築するために推論攻撃を起動する好奇心のあるサーバと、モデルアグリゲーションを妨害するために有害な攻撃を起動するクライアントだ。
既存のソリューションは、主流のプライバシ保護技術と防御戦略を組み合わせることで、これらの攻撃を緩和する。
しかし、高い計算と通信オーバーヘッドを発生させるか、非独立で同一に分散された(Non-IID)データ設定下では性能が良くない。
これらの課題に対処するために,非IIDシナリオのための効率的なビザンチンロスとプライバシー保護のためのFLフレームワークであるSRFedを提案する。
まず、効率的なモデル暗号化と非対話型復号化をサポートする分散型効率的な関数暗号(DEFE)方式を設計する。
DEFEはまた、サードパーティへの依存を排除し、サーバ側の推論攻撃を防御する。
次に,DEFEに基づくプライバシ保護型防衛モデルアグリゲーション機構を開発する。
このメカニズムは、レイヤーワイドプロジェクションとクラスタリングに基づく分析により、非IIDデータの下で有毒なモデルをフィルタリングする。
理論的分析と広範な実験により、SRFedはプライバシー保護、ビザンチンの堅牢性、効率において最先端のベースラインを上回っている。
関連論文リスト
- On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - Enhancing Model Privacy in Federated Learning with Random Masking and Quantization [46.915409150222494]
大規模言語モデル(LLM)の台頭は、分散システムに新たな課題をもたらした。
これは、センシティブなデータとプロプライエタリなモデルの両方を保護可能な、フェデレーション付き学習アプローチの必要性を強調している。
モデルパラメータのサブネットワークを隠蔽するためにランダムマスキングを利用するフェデレート学習手法であるFedQSNを提案する。
論文 参考訳(メタデータ) (2025-08-26T10:34:13Z) - VFEFL: Privacy-Preserving Federated Learning against Malicious Clients via Verifiable Functional Encryption [3.329039715890632]
フェデレートラーニング(Federated Learning)は、ローカルクライアントデータを公開せずに協調的なモデルトレーニングを可能にする、有望な分散学習パラダイムである。
フェデレーション学習の分散した性質は、悪意のあるクライアントによる攻撃に対して特に脆弱である。
本稿では,検証可能な機能暗号化に基づくプライバシ保護型フェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-15T13:38:40Z) - Privacy-Preserving Federated Embedding Learning for Localized Retrieval-Augmented Generation [60.81109086640437]
我々はFedE4RAG(Federated Retrieval-Augmented Generation)と呼ばれる新しいフレームワークを提案する。
FedE4RAGはクライアント側RAG検索モデルの協調トレーニングを容易にする。
モデルパラメータの保護にフェデレート学習の準同型暗号化を適用する。
論文 参考訳(メタデータ) (2025-04-27T04:26:02Z) - Byzantine-Robust Federated Learning Using Generative Adversarial Networks [1.4091801425319963]
フェデレートラーニング(FL)は、生データを共有せずに分散クライアント間で協調的なモデルトレーニングを可能にするが、その堅牢性は、データやモデル中毒といったビザンチンの行動によって脅かされている。
本稿では,クライアントの更新を検証するための代表データを生成するために,サーバ上の条件付き生成逆ネットワーク(cGAN)を活用することで,これらの課題に対処する防衛フレームワークを提案する。
このアプローチは、外部データセットへの依存を排除し、多様な攻撃戦略に適応し、標準FLにシームレスに統合する。
論文 参考訳(メタデータ) (2025-03-26T18:00:56Z) - Dual Defense: Enhancing Privacy and Mitigating Poisoning Attacks in Federated Learning [10.102889257118145]
フェデレート・ラーニング(FL)は、本質的にプライバシー侵害や毒殺攻撃の影響を受けやすい。
本稿では,DDF(Dual Defense Federated Learning)フレームワークを紹介する。
DDFedは、新たな参加者の役割を導入したり、既存のFLトポロジを破壊したりすることなく、プライバシー保護を強化し、毒殺攻撃を緩和する。
論文 参考訳(メタデータ) (2025-02-08T12:28:20Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、プライバシの問題に対処するために設計された分散フレームワークである。
新たなアタックサーフェスを導入しており、データは独立に、そしてIdentically Distributedである場合、特に困難である。
我々は,モデル中毒に対する簡易かつ効果的な新しい防御アルゴリズムであるFedCCを提案する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。