論文の概要: Mitigating Data Poisoning Attacks to Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2506.02156v1
- Date: Mon, 02 Jun 2025 18:37:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 04:22:50.782846
- Title: Mitigating Data Poisoning Attacks to Local Differential Privacy
- Title(参考訳): データポジショニング攻撃をローカルな差別的プライバシに移行する
- Authors: Xiaolin Li, Ninghui Li, Boyang Wang, Wenhai Sun,
- Abstract要約: 本稿では,新しい防御機能群を含む一般的な周波数推定のための包括的緩和フレームワークを提案する。
そこで本研究では,ウシの報告を正確に識別する新たな手法を提案する。
攻撃行動がステルス化し、悪意のあるユーザを直接フィルタリングするのは難しい場合、隠れた敵のパターンを効果的に認識できる検出法を提案する。
- 参考スコア(独自算出の注目度): 14.050238622718798
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The distributed nature of local differential privacy (LDP) invites data poisoning attacks and poses unforeseen threats to the underlying LDP-supported applications. In this paper, we propose a comprehensive mitigation framework for popular frequency estimation, which contains a suite of novel defenses, including malicious user detection, attack pattern recognition, and damaged utility recovery. In addition to existing attacks, we explore new adaptive adversarial activities for our mitigation design. For detection, we present a new method to precisely identify bogus reports and thus LDP aggregation can be performed over the ``clean'' data. When the attack behavior becomes stealthy and direct filtering out malicious users is difficult, we further propose a detection that can effectively recognize hidden adversarial patterns, thus facilitating the decision-making of service providers. These detection methods require no additional data and attack information and incur minimal computational cost. Our experiment demonstrates their excellent performance and substantial improvement over previous work in various settings. In addition, we conduct an empirical analysis of LDP post-processing for corrupted data recovery and propose a new post-processing method, through which we reveal new insights into protocol recommendations in practice and key design principles for future research.
- Abstract(参考訳): ローカルディファレンシャルプライバシ(LDP)の分散した性質は、データ中毒の攻撃を招き、基盤となるLDPをサポートするアプリケーションに対して予期せぬ脅威を引き起こす。
本稿では,悪質なユーザ検出,攻撃パターン認識,破損したユーティリティリカバリを含む,一連の新しい防御機能を含む,一般的な周波数推定のための包括的緩和フレームワークを提案する。
既存の攻撃に加えて、緩和設計のための新たな適応的敵活動についても検討する。
そこで本研究では,<clean'データ上でのLPPアグリゲーションを実現するため,ボグスレポートを正確に識別する新しい手法を提案する。
攻撃行動がステルス化し、悪意のあるユーザを直接フィルタリングすることが困難な場合には、隠れた敵のパターンを効果的に認識し、サービス提供者の意思決定を容易にする検出法も提案する。
これらの検出方法は、追加のデータや攻撃情報を必要とせず、最小限の計算コストを発生させる。
実験では, 過去の作業よりも優れた性能と大幅な改善が, 様々な環境で実証されている。
さらに,劣化したデータ回復のためのLCP後処理を実証的に分析し,プロトコルレコメンデーションの新たな洞察と今後の研究の鍵となる設計原則を明らかにすることを目的とした,新しい後処理手法を提案する。
関連論文リスト
- DataSentinel: A Game-Theoretic Detection of Prompt Injection Attacks [101.52204404377039]
LLM統合されたアプリケーションとエージェントは、インジェクション攻撃に弱い。
検出方法は、入力が注入プロンプトによって汚染されているかどうかを判定することを目的とする。
本研究では,迅速なインジェクション攻撃を検出するゲーム理論手法であるDataSentinelを提案する。
論文 参考訳(メタデータ) (2025-04-15T16:26:21Z) - On the Robustness of LDP Protocols for Numerical Attributes under Data Poisoning Attacks [17.351593328097977]
ローカルディファレンシャルプライバシ(LDP)プロトコルは、データ中毒攻撃に対して脆弱である。
この脆弱性は、敵対的環境におけるLDPの堅牢性と信頼性に関する懸念を引き起こす。
論文 参考訳(メタデータ) (2024-03-28T15:43:38Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Re-thinking Data Availablity Attacks Against Deep Neural Networks [53.64624167867274]
本稿では、未学習例の概念を再検討し、既存のロバストな誤り最小化ノイズが不正確な最適化目標であることを示す。
本稿では,計算時間要件の低減による保護性能の向上を図った新しい最適化パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T04:03:51Z) - Balancing detectability and performance of attacks on the control
channel of Markov Decision Processes [77.66954176188426]
マルコフ決定過程(MDPs)の制御チャネルにおける最適ステルス毒素攻撃の設計問題について検討する。
この研究は、MDPに適用された敵国・毒殺攻撃や強化学習(RL)手法に対する研究コミュニティの最近の関心に動機づけられている。
論文 参考訳(メタデータ) (2021-09-15T09:13:10Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。