論文の概要: Data Poisoning Attacks to Locally Differentially Private Range Query Protocols
- arxiv url: http://arxiv.org/abs/2503.03454v2
- Date: Thu, 06 Mar 2025 14:25:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 15:06:36.356384
- Title: Data Poisoning Attacks to Locally Differentially Private Range Query Protocols
- Title(参考訳): ローカルに異なるプライベートレンジクエリプロトコルに対するデータポジショニング攻撃
- Authors: Ting-Wei Liao, Chih-Hsun Lin, Yu-Lin Tsai, Takao Murakami, Chia-Mu Yu, Jun Sakuma, Chun-Ying Huang, Hiroaki Kikuchi,
- Abstract要約: ローカル微分プライバシー(LDP)は、分散データ収集においてユーザのプライバシを保護するために広く採用されている。
近年の研究では、LDPプロトコルがデータ中毒攻撃に弱いことが判明している。
本稿では LDP 範囲のクエリプロトコルをターゲットとしたデータ中毒攻撃に関する最初の研究について述べる。
- 参考スコア(独自算出の注目度): 15.664794320925562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Local Differential Privacy (LDP) has been widely adopted to protect user privacy in decentralized data collection. However, recent studies have revealed that LDP protocols are vulnerable to data poisoning attacks, where malicious users manipulate their reported data to distort aggregated results. In this work, we present the first study on data poisoning attacks targeting LDP range query protocols, focusing on both tree-based and grid-based approaches. We identify three key challenges in executing such attacks, including crafting consistent and effective fake data, maintaining data consistency across levels or grids, and preventing server detection. To address the first two challenges, we propose novel attack methods that are provably optimal, including a tree-based attack and a grid-based attack, designed to manipulate range query results with high effectiveness. \textbf{Our key finding is that the common post-processing procedure, Norm-Sub, in LDP range query protocols can help the attacker massively amplify their attack effectiveness.} In addition, we study a potential countermeasure, but also propose an adaptive attack capable of evading this defense to address the third challenge. We evaluate our methods through theoretical analysis and extensive experiments on synthetic and real-world datasets. Our results show that the proposed attacks can significantly amplify estimations for arbitrary range queries by manipulating a small fraction of users, providing 5-10x more influence than a normal user to the estimation.
- Abstract(参考訳): ローカル微分プライバシー(LDP)は、分散データ収集においてユーザのプライバシを保護するために広く採用されている。
しかし、最近の研究により、LDPプロトコルは、悪意のあるユーザーが報告されたデータを操作して集計結果を歪ませるデータ中毒攻撃に弱いことが判明した。
本研究では, LDP範囲クエリプロトコルを対象としたデータ中毒攻撃について, ツリーベースとグリッドベースの両方に焦点をあてた最初の研究を行った。
例えば、一貫性のある効果的なフェイクデータの作成、レベルやグリッド間のデータの一貫性の維持、サーバ検出の防止などです。
最初の2つの課題に対処するために,木ベースの攻撃やグリッドベースの攻撃など,高い効率で範囲問合せ結果を操作できる新しい攻撃手法を提案する。
LDPレンジクエリプロトコルにおける一般的な後処理手順であるNorm-Subは、攻撃者の攻撃効果を大幅に増幅するのに役立つ。
さらに,この防御を回避し,第3の課題に対処できるアダプティブアタックを提案する。
提案手法は,理論解析と,合成および実世界のデータセットに関する広範な実験を通じて評価する。
提案した攻撃は,少数のユーザを操作することで,任意の範囲のクエリに対する推定を著しく増幅し,通常のユーザよりも5~10倍の精度で推定できることを示す。
関連論文リスト
- DataSentinel: A Game-Theoretic Detection of Prompt Injection Attacks [101.52204404377039]
LLM統合されたアプリケーションとエージェントは、インジェクション攻撃に弱い。
検出方法は、入力が注入プロンプトによって汚染されているかどうかを判定することを目的とする。
本研究では,迅速なインジェクション攻撃を検出するゲーム理論手法であるDataSentinelを提案する。
論文 参考訳(メタデータ) (2025-04-15T16:26:21Z) - Poisoning Attacks to Local Differential Privacy Protocols for Trajectory Data [14.934626547047763]
地理的な位置からの動きを追跡するトラジェクトリデータは、現実世界のアプリケーションを改善するために不可欠である。
ローカルディファレンシャルプライバシ(LDP)は、個人が自分の軌跡データを共有する前に局所的に摂動できるようにするソリューションを提供する。
プライバシー上の利点にもかかわらず、LDPプロトコルはデータ中毒攻撃に対して脆弱であり、攻撃者は偽のデータを注入して集約された結果を操作する。
論文 参考訳(メタデータ) (2025-03-06T02:31:45Z) - Sub-optimal Learning in Meta-Classifier Attacks: A Study of Membership Inference on Differentially Private Location Aggregates [19.09251452596829]
情報攻撃者であっても,DPが期待する攻撃精度と経験的攻撃精度との間には,有意なギャップがあることが示唆された。
提案手法は,1閾値攻撃と2閾値攻撃の2つである。
論文 参考訳(メタデータ) (2024-12-29T12:51:34Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Long-Tailed Backdoor Attack Using Dynamic Data Augmentation Operations [50.1394620328318]
既存のバックドア攻撃は主にバランスの取れたデータセットに焦点を当てている。
動的データ拡張操作(D$2$AO)という効果的なバックドア攻撃を提案する。
本手法は,クリーンな精度を維持しつつ,最先端の攻撃性能を実現することができる。
論文 参考訳(メタデータ) (2024-10-16T18:44:22Z) - AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
テキストの匿名化は、プライバシーを維持しながら機密データを共有するために重要である。
既存の技術は、大規模言語モデルの再識別攻撃能力の新たな課題に直面している。
本稿では,3つのLCMベースコンポーネント – プライバシ評価器,ユーティリティ評価器,最適化コンポーネント – で構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Data Poisoning Attacks to Locally Differentially Private Frequent Itemset Mining Protocols [13.31395140464466]
ローカルディファレンシャルプライバシ(LDP)は、信頼できないデータコレクタが、プライバシに違反することなく、ユーザのデータを集約する方法を提供する。
周波数推定、頻繁なアイテムセットマイニング、機械学習など、LDPの保護の下で、さまざまなプライバシー保護データ分析タスクが研究されている。
最近の研究は、データ中毒攻撃に対する特定のLDPプロトコルの脆弱性を実証している。
論文 参考訳(メタデータ) (2024-06-27T18:11:19Z) - On the Robustness of LDP Protocols for Numerical Attributes under Data Poisoning Attacks [17.351593328097977]
ローカルディファレンシャルプライバシ(LDP)プロトコルは、データ中毒攻撃に対して脆弱である。
この脆弱性は、敵対的環境におけるLDPの堅牢性と信頼性に関する懸念を引き起こす。
論文 参考訳(メタデータ) (2024-03-28T15:43:38Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Privacy Attacks in Decentralized Learning [10.209045867868674]
Decentralized Gradient Descent (D-GD)は、データを共有することなく、複数のユーザが協調学習を行うことを可能にする。
本稿では,D-GDに対する最初の攻撃を提案する。
実際のグラフやデータセットに対する攻撃の有効性を検証することで、単一の攻撃者や少数の攻撃者によって侵入されたユーザの数が驚くほど大きいことを示しています。
論文 参考訳(メタデータ) (2024-02-15T15:06:33Z) - Securing Recommender System via Cooperative Training [78.97620275467733]
本稿では,データを相互に強化する3つの協調モデルを用いたTCD(Triple Cooperative Defense)を提案する。
既存の攻撃が二段階最適化と効率のバランスをとるのに苦労していることを考えると、リコメンダシステムにおける毒殺攻撃を再考する。
我々はゲームベースのコトレーニングアタック(GCoAttack)を提案し,提案したCoAttackとTCDをゲーム理論のプロセスとする。
論文 参考訳(メタデータ) (2024-01-23T12:07:20Z) - Protecting Model Adaptation from Trojans in the Unlabeled Data [120.42853706967188]
本稿では,よく設計された毒物標的データによるモデル適応に対するトロイの木馬攻撃の可能性について検討する。
本稿では,既存の適応アルゴリズムとシームレスに統合可能なDiffAdaptというプラグイン・アンド・プレイ手法を提案する。
論文 参考訳(メタデータ) (2024-01-11T16:42:10Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Unsupervised Finetuning [80.58625921631506]
ソースデータとターゲットデータを組み合わせて教師なしの微調整を行うための2つの戦略を提案する。
前者の戦略の動機は、事前訓練された表現空間を占有するために、少量のソースデータを追加することである。
後者の戦略の動機は、データ密度を高め、よりコンパクトな表現を学ぶことにある。
論文 参考訳(メタデータ) (2021-10-18T17:57:05Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。