論文の概要: Fine-grained Manipulation Attacks to Local Differential Privacy Protocols for Data Streams
- arxiv url: http://arxiv.org/abs/2505.01292v1
- Date: Fri, 02 May 2025 14:09:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:20.056324
- Title: Fine-grained Manipulation Attacks to Local Differential Privacy Protocols for Data Streams
- Title(参考訳): データストリームのための局所微分プライバシープロトコルへのきめ細かい操作攻撃
- Authors: Xinyu Li, Xuebin Ren, Shusen Yang, Liang Shi, Chia-Mu Yu,
- Abstract要約: ローカル微分プライバシー(LDP)は、ユーザのプライバシーを保護しながら大量のデータ収集と分析を可能にする。
最近の知見から, LDP プロトコルは中毒や操作による攻撃によって容易に破壊される可能性が示唆された。
我々の研究は、データストリームのための LDP プロトコルに対する新たなきめ細かい操作攻撃を開発することでギャップを埋める。
- 参考スコア(独自算出の注目度): 19.89063520419922
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Local Differential Privacy (LDP) enables massive data collection and analysis while protecting end users' privacy against untrusted aggregators. It has been applied to various data types (e.g., categorical, numerical, and graph data) and application settings (e.g., static and streaming). Recent findings indicate that LDP protocols can be easily disrupted by poisoning or manipulation attacks, which leverage injected/corrupted fake users to send crafted data conforming to the LDP reports. However, current attacks primarily target static protocols, neglecting the security of LDP protocols in the streaming settings. Our research fills the gap by developing novel fine-grained manipulation attacks to LDP protocols for data streams. By reviewing the attack surfaces in existing algorithms, We introduce a unified attack framework with composable modules, which can manipulate the LDP estimated stream toward a target stream. Our attack framework can adapt to state-of-the-art streaming LDP algorithms with different analytic tasks (e.g., frequency and mean) and LDP models (event-level, user-level, w-event level). We validate our attacks theoretically and through extensive experiments on real-world datasets, and finally explore a possible defense mechanism for mitigating these attacks.
- Abstract(参考訳): ローカル微分プライバシー(LDP)は、エンドユーザーのプライバシーを信頼できないアグリゲータから保護しながら、大量のデータ収集と分析を可能にする。
さまざまなデータ型(カテゴリ、数値、グラフデータなど)やアプリケーション設定(静的、ストリーミングなど)に適用されています。
近年の知見から, LDP のプロトコルは, 偽ユーザを注入・破損したユーザから, LDP の報告に適合したクラフトデータを送信する, 中毒や操作による攻撃によって容易に破壊可能であることが示唆された。
しかし、現在の攻撃は主に静的プロトコルをターゲットにしており、ストリーミング設定におけるLDPプロトコルのセキュリティを無視している。
本研究は,データストリーム用 LDP プロトコルに対する新たなきめ細かな操作攻撃を開発することで,そのギャップを埋めるものである。
既存のアルゴリズムの攻撃面をレビューすることにより,LDP推定ストリームをターゲットストリームに向けて操作可能な,構成可能なモジュールを備えた統合攻撃フレームワークを導入する。
我々の攻撃フレームワークは、分析タスク(例えば、周波数と平均)とLDPモデル(イベントレベル、ユーザレベル、w-eventレベル)の異なる最先端のストリーミングLDPアルゴリズムに適応することができる。
実世界のデータセットに関する広範な実験を通じて、我々の攻撃を理論的に検証し、最終的にこれらの攻撃を緩和するための防御メカニズムを探求する。
関連論文リスト
- Poisoning Attacks to Local Differential Privacy Protocols for Trajectory Data [14.934626547047763]
地理的な位置からの動きを追跡するトラジェクトリデータは、現実世界のアプリケーションを改善するために不可欠である。
ローカルディファレンシャルプライバシ(LDP)は、個人が自分の軌跡データを共有する前に局所的に摂動できるようにするソリューションを提供する。
プライバシー上の利点にもかかわらず、LDPプロトコルはデータ中毒攻撃に対して脆弱であり、攻撃者は偽のデータを注入して集約された結果を操作する。
論文 参考訳(メタデータ) (2025-03-06T02:31:45Z) - Data Poisoning Attacks to Locally Differentially Private Range Query Protocols [15.664794320925562]
ローカル微分プライバシー(LDP)は、分散データ収集においてユーザのプライバシを保護するために広く採用されている。
近年の研究では、LDPプロトコルがデータ中毒攻撃に弱いことが判明している。
本稿では LDP 範囲のクエリプロトコルをターゲットとしたデータ中毒攻撃に関する最初の研究について述べる。
論文 参考訳(メタデータ) (2025-03-05T12:40:34Z) - On the Robustness of LDP Protocols for Numerical Attributes under Data Poisoning Attacks [17.351593328097977]
ローカルディファレンシャルプライバシ(LDP)プロトコルは、データ中毒攻撃に対して脆弱である。
この脆弱性は、敵対的環境におけるLDPの堅牢性と信頼性に関する懸念を引き起こす。
論文 参考訳(メタデータ) (2024-03-28T15:43:38Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - Defending Pre-trained Language Models as Few-shot Learners against
Backdoor Attacks [72.03945355787776]
軽快でプラガブルで効果的な PLM 防御である MDP を,少人数の学習者として提唱する。
我々は,MDPが攻撃の有効性と回避性の両方を選択できる興味深いジレンマを発生させることを解析的に示す。
論文 参考訳(メタデータ) (2023-09-23T04:41:55Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Lossless Compression of Efficient Private Local Randomizers [55.657133416044104]
Locally Differentially Private (LDP) Reportsは、フェデレーション設定における統計と機械学習の収集に一般的に使用されます。
多くの場合、最もよく知られたldpアルゴリズムは、クライアントデバイスからサーバに強制的に大きなメッセージを送信する必要がある。
これにより、LDPアルゴリズムの通信コストの削減に大きく貢献しています。
論文 参考訳(メタデータ) (2021-02-24T07:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。