論文の概要: On Evaluating the Poisoning Robustness of Federated Learning under Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2509.05265v1
- Date: Fri, 05 Sep 2025 17:23:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.667413
- Title: On Evaluating the Poisoning Robustness of Federated Learning under Local Differential Privacy
- Title(参考訳): 地域差分プライバシー下におけるフェデレーション学習のロバスト性評価について
- Authors: Zijian Wang, Wei Tong, Tingxuan Han, Haoyu Chen, Tianling Zhang, Yunlong Mao, Sheng Zhong,
- Abstract要約: LDPFL設定に適した新規かつモデル中毒攻撃フレームワークを提案する。
我々のアプローチは、ローカルなプライバシー制約に固執しながら、グローバルなトレーニング損失を最大化することを目的としています。
我々は3つの代表的なLDPFLプロトコル、3つのベンチマークデータセット、2種類のディープニューラルネットワークでフレームワークを評価した。
- 参考スコア(独自算出の注目度): 12.421658400381082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) combined with local differential privacy (LDP) enables privacy-preserving model training across decentralized data sources. However, the decentralized data-management paradigm leaves LDPFL vulnerable to participants with malicious intent. The robustness of LDPFL protocols, particularly against model poisoning attacks (MPA), where adversaries inject malicious updates to disrupt global model convergence, remains insufficiently studied. In this paper, we propose a novel and extensible model poisoning attack framework tailored for LDPFL settings. Our approach is driven by the objective of maximizing the global training loss while adhering to local privacy constraints. To counter robust aggregation mechanisms such as Multi-Krum and trimmed mean, we develop adaptive attacks that embed carefully crafted constraints into a reverse training process, enabling evasion of these defenses. We evaluate our framework across three representative LDPFL protocols, three benchmark datasets, and two types of deep neural networks. Additionally, we investigate the influence of data heterogeneity and privacy budgets on attack effectiveness. Experimental results demonstrate that our adaptive attacks can significantly degrade the performance of the global model, revealing critical vulnerabilities and highlighting the need for more robust LDPFL defense strategies against MPA. Our code is available at https://github.com/ZiJW/LDPFL-Attack
- Abstract(参考訳): フェデレートラーニング(FL)とローカルディファレンシャルプライバシ(LDP)を組み合わせることで、分散データソース間のプライバシ保護モデルトレーニングが可能になる。
しかし、分散データ管理パラダイムは、LDPFLを悪意のある意図を持つ参加者に脆弱にさせる。
LDPFLプロトコルのロバスト性、特に敵が悪質なアップデートを注入してグローバルなモデル収束を阻害するモデル中毒攻撃(MPA)については、まだ十分に研究されていない。
本稿では, LDPFL設定に適した, 新規で拡張可能なモデル中毒攻撃フレームワークを提案する。
我々のアプローチは、ローカルなプライバシー制約に固執しながら、グローバルなトレーニング損失を最大化することを目的としています。
マルチクルムやトリミング平均といったロバストなアグリゲーション機構に対抗するため、我々は、厳密な制約を逆トレーニングプロセスに組み込んだ適応攻撃を開発し、これらの防御を回避した。
我々は3つの代表的なLDPFLプロトコル、3つのベンチマークデータセット、2種類のディープニューラルネットワークでフレームワークを評価した。
さらに,データの不均一性とプライバシ予算が攻撃効果に与える影響についても検討する。
実験の結果、我々の適応攻撃はグローバルモデルの性能を著しく低下させ、重大な脆弱性を明らかにし、MPAに対するより堅牢な LDPFL 防衛戦略の必要性を強調した。
私たちのコードはhttps://github.com/ZiJW/LDPFL-Attackで利用可能です。
関連論文リスト
- PPFPL: Cross-silo Privacy-preserving Federated Prototype Learning Against Data Poisoning Attacks on Non-IID Data [24.84385720209427]
プライバシ保護 フェデレーション学習により、複数のクライアントが、隠れたモデル更新を送信することによって、ディープラーニングモデルを協調的にトレーニングできる。
既存のソリューションは、有毒な非IIDデータにおけるクロスサイロPPFLの性能向上に苦慮している。
本稿では,PFPL という名称のプライバシ保存型フェデレーション型プロトタイプ学習フレームワークを提案し,このフレームワークにより,有毒な非IIDデータにおけるクロスサイロFLの性能が向上する。
論文 参考訳(メタデータ) (2025-04-04T05:05:24Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - Sentinel: An Aggregation Function to Secure Decentralized Federated Learning [9.046402244232343]
Decentralized Federated Learning (DFL)は、協調モデルをトレーニングするための革新的なパラダイムとして登場し、単一障害点に対処する。
既存の防御機構は集中型FLのために設計されており、DFLの特異性を十分に活用していない。
この研究は、DFLの毒殺攻撃に対抗する防衛戦略であるSentinelを紹介した。
論文 参考訳(メタデータ) (2023-10-12T07:45:18Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、プライバシの問題に対処するために設計された分散フレームワークである。
新たなアタックサーフェスを導入しており、データは独立に、そしてIdentically Distributedである場合、特に困難である。
我々は,モデル中毒に対する簡易かつ効果的な新しい防御アルゴリズムであるFedCCを提案する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Unraveling the Connections between Privacy and Certified Robustness in
Federated Learning Against Poisoning Attacks [68.20436971825941]
フェデレートラーニング(FL)は、分散ユーザのデータを活用するグローバルモデルを共同でトレーニングするための、効率的なパラダイムを提供する。
いくつかの研究により、FLは毒殺攻撃に弱いことが示されている。
ローカルユーザのプライバシを保護するため、FLは通常、差分プライベートな方法でトレーニングされる。
論文 参考訳(メタデータ) (2022-09-08T21:01:42Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。