論文の概要: Poisoning Attacks to Local Differential Privacy Protocols for Trajectory Data
- arxiv url: http://arxiv.org/abs/2503.07483v1
- Date: Thu, 06 Mar 2025 02:31:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:50:09.152494
- Title: Poisoning Attacks to Local Differential Privacy Protocols for Trajectory Data
- Title(参考訳): 軌跡データに対する局所微分プライバシープロトコルへの攻撃
- Authors: I-Jung Hsu, Chih-Hsun Lin, Chia-Mu Yu, Sy-Yen Kuo, Chun-Ying Huang,
- Abstract要約: 地理的な位置からの動きを追跡するトラジェクトリデータは、現実世界のアプリケーションを改善するために不可欠である。
ローカルディファレンシャルプライバシ(LDP)は、個人が自分の軌跡データを共有する前に局所的に摂動できるようにするソリューションを提供する。
プライバシー上の利点にもかかわらず、LDPプロトコルはデータ中毒攻撃に対して脆弱であり、攻撃者は偽のデータを注入して集約された結果を操作する。
- 参考スコア(独自算出の注目度): 14.934626547047763
- License:
- Abstract: Trajectory data, which tracks movements through geographic locations, is crucial for improving real-world applications. However, collecting such sensitive data raises considerable privacy concerns. Local differential privacy (LDP) offers a solution by allowing individuals to locally perturb their trajectory data before sharing it. Despite its privacy benefits, LDP protocols are vulnerable to data poisoning attacks, where attackers inject fake data to manipulate aggregated results. In this work, we make the first attempt to analyze vulnerabilities in several representative LDP trajectory protocols. We propose \textsc{TraP}, a heuristic algorithm for data \underline{P}oisoning attacks using a prefix-suffix method to optimize fake \underline{Tra}jectory selection, significantly reducing computational complexity. Our experimental results demonstrate that our attack can substantially increase target pattern occurrences in the perturbed trajectory dataset with few fake users. This study underscores the urgent need for robust defenses and better protocol designs to safeguard LDP trajectory data against malicious manipulation.
- Abstract(参考訳): 地理的な位置からの動きを追跡するトラジェクトリデータは、現実世界のアプリケーションを改善するために不可欠である。
しかし、そのような機密データを収集することは、プライバシーの懸念をかなり引き起こす。
ローカルディファレンシャルプライバシ(LDP)は、個人が自分の軌跡データを共有する前に局所的に摂動できるようにするソリューションを提供する。
プライバシー上の利点にもかかわらず、LDPプロトコルはデータ中毒攻撃に対して脆弱であり、攻撃者は偽のデータを注入して集約された結果を操作する。
本研究では,いくつかの代表的なLDPトラジェクトリプロトコルの脆弱性を解析するための最初の試みを行う。
本稿では,擬似な擬似オブジェクト選択を最適化するためにプレフィックス・サフィックス法を用いて,データ・サンダーライン{P}オフソン攻撃に対するヒューリスティックなアルゴリズムである \textsc{TraP} を提案する。
実験の結果,偽ユーザが少なく,摂動軌跡データセットのターゲットパターンの発生が著しく増加することが示された。
本研究は, LDPトラジェクトリデータを悪意ある操作から保護するために, 堅牢な防御とプロトコル設計の緊急性の必要性を浮き彫りにする。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Long-Tailed Backdoor Attack Using Dynamic Data Augmentation Operations [50.1394620328318]
既存のバックドア攻撃は主にバランスの取れたデータセットに焦点を当てている。
動的データ拡張操作(D$2$AO)という効果的なバックドア攻撃を提案する。
本手法は,クリーンな精度を維持しつつ,最先端の攻撃性能を実現することができる。
論文 参考訳(メタデータ) (2024-10-16T18:44:22Z) - UTrace: Poisoning Forensics for Private Collaborative Learning [8.161400729150209]
我々は、マシンラーニング(PPML)における中毒攻撃のユーザレベルトレースバックのためのフレームワークであるUTraceを紹介する。
UTraceは低毒性率で有効であり、複数のデータ所有者に分散した攻撃に対して耐性がある。
10件の中毒に対するUTraceの有効性を示した。
論文 参考訳(メタデータ) (2024-09-23T15:32:46Z) - Data Poisoning Attacks to Locally Differentially Private Frequent Itemset Mining Protocols [13.31395140464466]
ローカルディファレンシャルプライバシ(LDP)は、信頼できないデータコレクタが、プライバシに違反することなく、ユーザのデータを集約する方法を提供する。
周波数推定、頻繁なアイテムセットマイニング、機械学習など、LDPの保護の下で、さまざまなプライバシー保護データ分析タスクが研究されている。
最近の研究は、データ中毒攻撃に対する特定のLDPプロトコルの脆弱性を実証している。
論文 参考訳(メタデータ) (2024-06-27T18:11:19Z) - On the Robustness of LDP Protocols for Numerical Attributes under Data Poisoning Attacks [17.351593328097977]
ローカルディファレンシャルプライバシ(LDP)プロトコルは、データ中毒攻撃に対して脆弱である。
この脆弱性は、敵対的環境におけるLDPの堅牢性と信頼性に関する懸念を引き起こす。
論文 参考訳(メタデータ) (2024-03-28T15:43:38Z) - Protecting Model Adaptation from Trojans in the Unlabeled Data [120.42853706967188]
本稿では,よく設計された毒物標的データによるモデル適応に対するトロイの木馬攻撃の可能性について検討する。
本稿では,既存の適応アルゴリズムとシームレスに統合可能なDiffAdaptというプラグイン・アンド・プレイ手法を提案する。
論文 参考訳(メタデータ) (2024-01-11T16:42:10Z) - Enhancing Accuracy-Privacy Trade-off in Differentially Private Split Learning [2.2676798389997863]
Split Learning(SL)は、クライアントサーバ間で詳細なモデルを分散し、プライベートデータをローカルに保持することで、ユーザのデータプライバシを保護することを目的としている。
最近提案されたモデル反転攻撃は、スマッシュされたデータから元のデータを復元することができる。
ディファレンシャルプライバシ(DP)を採用する戦略では、スマッシュされたデータをある程度の精度の損失を犠牲にして保護する。
論文 参考訳(メタデータ) (2023-10-22T22:45:13Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - A Trajectory K-Anonymity Model Based on Point Density and Partition [0.0]
本稿では点密度と分割(K PDP)に基づく軌道K匿名性モデルを開発する。
再識別攻撃に抵抗し、k匿名データセットのデータユーティリティ損失を低減する。
論文 参考訳(メタデータ) (2023-07-31T17:10:56Z) - Autoregressive Perturbations for Data Poisoning [54.205200221427994]
ソーシャルメディアからのデータスクレイピングは、不正なデータの使用に関する懸念が高まっている。
データ中毒攻撃は、スクラップ対策として提案されている。
より広範なデータセットにアクセスせずに有毒なデータを生成できる自動回帰(AR)中毒を導入する。
論文 参考訳(メタデータ) (2022-06-08T06:24:51Z) - Unsupervised Finetuning [80.58625921631506]
ソースデータとターゲットデータを組み合わせて教師なしの微調整を行うための2つの戦略を提案する。
前者の戦略の動機は、事前訓練された表現空間を占有するために、少量のソースデータを追加することである。
後者の戦略の動機は、データ密度を高め、よりコンパクトな表現を学ぶことにある。
論文 参考訳(メタデータ) (2021-10-18T17:57:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。