論文の概要: Mitigating Data Poisoning Attacks to Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2506.02156v2
- Date: Mon, 16 Jun 2025 18:08:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.105961
- Title: Mitigating Data Poisoning Attacks to Local Differential Privacy
- Title(参考訳): データポジショニング攻撃をローカルな差別的プライバシに移行する
- Authors: Xiaolin Li, Ninghui Li, Boyang Wang, Wenhai Sun,
- Abstract要約: 本稿では,新しい防御機能群を含む一般的な周波数推定のための包括的緩和フレームワークを提案する。
そこで本研究では,ウシの報告を正確に識別する新たな手法を提案する。
攻撃行動がステルス化し、悪意のあるユーザを直接フィルタリングするのは難しい場合、隠れた敵のパターンを効果的に認識できる検出法を提案する。
- 参考スコア(独自算出の注目度): 14.050238622718798
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The distributed nature of local differential privacy (LDP) invites data poisoning attacks and poses unforeseen threats to the underlying LDP-supported applications. In this paper, we propose a comprehensive mitigation framework for popular frequency estimation, which contains a suite of novel defenses, including malicious user detection, attack pattern recognition, and damaged utility recovery. In addition to existing attacks, we explore new adaptive adversarial activities for our mitigation design. For detection, we present a new method to precisely identify bogus reports and thus LDP aggregation can be performed over the ``clean'' data. When the attack behavior becomes stealthy and direct filtering out malicious users is difficult, we further propose a detection that can effectively recognize hidden adversarial patterns, thus facilitating the decision-making of service providers. These detection methods require no additional data and attack information and incur minimal computational cost. Our experiment demonstrates their excellent performance and substantial improvement over previous work in various settings. In addition, we conduct an empirical analysis of LDP post-processing for corrupted data recovery and propose a new post-processing method, through which we reveal new insights into protocol recommendations in practice and key design principles for future research.
- Abstract(参考訳): ローカルディファレンシャルプライバシ(LDP)の分散した性質は、データ中毒の攻撃を招き、基盤となるLDPをサポートするアプリケーションに対して予期せぬ脅威を引き起こす。
本稿では,悪質なユーザ検出,攻撃パターン認識,破損したユーティリティリカバリを含む,一連の新しい防御機能を含む,一般的な周波数推定のための包括的緩和フレームワークを提案する。
既存の攻撃に加えて、緩和設計のための新たな適応的敵活動についても検討する。
そこで本研究では,<clean'データ上でのLPPアグリゲーションを実現するため,ボグスレポートを正確に識別する新しい手法を提案する。
攻撃行動がステルス化し、悪意のあるユーザを直接フィルタリングすることが困難な場合には、隠れた敵のパターンを効果的に認識し、サービス提供者の意思決定を容易にする検出法も提案する。
これらの検出方法は、追加のデータや攻撃情報を必要とせず、最小限の計算コストを発生させる。
実験では, 過去の作業よりも優れた性能と大幅な改善が, 様々な環境で実証されている。
さらに,劣化したデータ回復のためのLCP後処理を実証的に分析し,プロトコルレコメンデーションの新たな洞察と今後の研究の鍵となる設計原則を明らかにすることを目的とした,新しい後処理手法を提案する。
関連論文リスト
- DATABench: Evaluating Dataset Auditing in Deep Learning from an Adversarial Perspective [59.66984417026933]
内的特徴(IF)と外的特徴(EF)(監査のための技術導入)に依存した既存手法の分類を新たに導入する。
回避攻撃(evasion attack)は、データセットの使用を隠蔽するために設計されたもので、偽造攻撃(forgery attack)は、未使用のデータセットを誤って含んでいることを意図している。
さらに,既存手法の理解と攻撃目標に基づいて,回避のための分離・除去・検出,偽造の逆例に基づく攻撃方法など,系統的な攻撃戦略を提案する。
私たちのベンチマークであるData dataBenchは、17の回避攻撃、5の偽攻撃、9の攻撃で構成されています。
論文 参考訳(メタデータ) (2025-07-08T03:07:15Z) - Fine-grained Manipulation Attacks to Local Differential Privacy Protocols for Data Streams [19.89063520419922]
ローカル微分プライバシー(LDP)は、ユーザのプライバシーを保護しながら大量のデータ収集と分析を可能にする。
最近の知見から, LDP プロトコルは中毒や操作による攻撃によって容易に破壊される可能性が示唆された。
我々の研究は、データストリームのための LDP プロトコルに対する新たなきめ細かい操作攻撃を開発することでギャップを埋める。
論文 参考訳(メタデータ) (2025-05-02T14:09:56Z) - DataSentinel: A Game-Theoretic Detection of Prompt Injection Attacks [101.52204404377039]
LLM統合されたアプリケーションとエージェントは、インジェクション攻撃に弱い。
検出方法は、入力が注入プロンプトによって汚染されているかどうかを判定することを目的とする。
本研究では,迅速なインジェクション攻撃を検出するゲーム理論手法であるDataSentinelを提案する。
論文 参考訳(メタデータ) (2025-04-15T16:26:21Z) - Poisoning Attacks to Local Differential Privacy Protocols for Trajectory Data [14.934626547047763]
地理的な位置からの動きを追跡するトラジェクトリデータは、現実世界のアプリケーションを改善するために不可欠である。
ローカルディファレンシャルプライバシ(LDP)は、個人が自分の軌跡データを共有する前に局所的に摂動できるようにするソリューションを提供する。
プライバシー上の利点にもかかわらず、LDPプロトコルはデータ中毒攻撃に対して脆弱であり、攻撃者は偽のデータを注入して集約された結果を操作する。
論文 参考訳(メタデータ) (2025-03-06T02:31:45Z) - Data Poisoning Attacks to Locally Differentially Private Range Query Protocols [15.664794320925562]
ローカル微分プライバシー(LDP)は、分散データ収集においてユーザのプライバシを保護するために広く採用されている。
近年の研究では、LDPプロトコルがデータ中毒攻撃に弱いことが判明している。
本稿では LDP 範囲のクエリプロトコルをターゲットとしたデータ中毒攻撃に関する最初の研究について述べる。
論文 参考訳(メタデータ) (2025-03-05T12:40:34Z) - Hide in Plain Sight: Clean-Label Backdoor for Auditing Membership Inference [16.893873979953593]
本研究では,ステルスデータ監査のための新しいクリーンラベルバックドア方式を提案する。
我々のアプローチでは、ターゲットモデルの振る舞いを模倣するシャドウモデルによって生成される最適なトリガを用いる。
提案手法は,ブラックボックスアクセスによるロバストなデータ監査を可能にし,多様なデータセット間で高い攻撃成功率を達成する。
論文 参考訳(メタデータ) (2024-11-24T20:56:18Z) - On the Robustness of LDP Protocols for Numerical Attributes under Data Poisoning Attacks [17.351593328097977]
ローカルディファレンシャルプライバシ(LDP)プロトコルは、データ中毒攻撃に対して脆弱である。
この脆弱性は、敵対的環境におけるLDPの堅牢性と信頼性に関する懸念を引き起こす。
論文 参考訳(メタデータ) (2024-03-28T15:43:38Z) - On the Universal Adversarial Perturbations for Efficient Data-free
Adversarial Detection [55.73320979733527]
本稿では,UAPに対して正常サンプルと逆サンプルの異なる応答を誘導する,データに依存しない逆検出フレームワークを提案する。
実験結果から,本手法は様々なテキスト分類タスクにおいて,競合検出性能を実現することが示された。
論文 参考訳(メタデータ) (2023-06-27T02:54:07Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Re-thinking Data Availablity Attacks Against Deep Neural Networks [53.64624167867274]
本稿では、未学習例の概念を再検討し、既存のロバストな誤り最小化ノイズが不正確な最適化目標であることを示す。
本稿では,計算時間要件の低減による保護性能の向上を図った新しい最適化パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T04:03:51Z) - Balancing detectability and performance of attacks on the control
channel of Markov Decision Processes [77.66954176188426]
マルコフ決定過程(MDPs)の制御チャネルにおける最適ステルス毒素攻撃の設計問題について検討する。
この研究は、MDPに適用された敵国・毒殺攻撃や強化学習(RL)手法に対する研究コミュニティの最近の関心に動機づけられている。
論文 参考訳(メタデータ) (2021-09-15T09:13:10Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。