論文の概要: Data Poisoning Attacks to Locally Differentially Private Frequent Itemset Mining Protocols
- arxiv url: http://arxiv.org/abs/2406.19466v1
- Date: Thu, 27 Jun 2024 18:11:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-07-01 18:51:19.764884
- Title: Data Poisoning Attacks to Locally Differentially Private Frequent Itemset Mining Protocols
- Title(参考訳): 局所的に異なる頻度のアイテムセットマイニングプロトコルに対するデータポジショニング攻撃
- Authors: Wei Tong, Haoyu Chen, Jiacheng Niu, Sheng Zhong,
- Abstract要約: ローカルディファレンシャルプライバシ(LDP)は、信頼できないデータコレクタが、プライバシに違反することなく、ユーザのデータを集約する方法を提供する。
周波数推定、頻繁なアイテムセットマイニング、機械学習など、LDPの保護の下で、さまざまなプライバシー保護データ分析タスクが研究されている。
最近の研究は、データ中毒攻撃に対する特定のLDPプロトコルの脆弱性を実証している。
- 参考スコア(独自算出の注目度): 13.31395140464466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Local differential privacy (LDP) provides a way for an untrusted data collector to aggregate users' data without violating their privacy. Various privacy-preserving data analysis tasks have been studied under the protection of LDP, such as frequency estimation, frequent itemset mining, and machine learning. Despite its privacy-preserving properties, recent research has demonstrated the vulnerability of certain LDP protocols to data poisoning attacks. However, existing data poisoning attacks are focused on basic statistics under LDP, such as frequency estimation and mean/variance estimation. As an important data analysis task, the security of LDP frequent itemset mining has yet to be thoroughly examined. In this paper, we aim to address this issue by presenting novel and practical data poisoning attacks against LDP frequent itemset mining protocols. By introducing a unified attack framework with composable attack operations, our data poisoning attack can successfully manipulate the state-of-the-art LDP frequent itemset mining protocols and has the potential to be adapted to other protocols with similar structures. We conduct extensive experiments on three datasets to compare the proposed attack with four baseline attacks. The results demonstrate the severity of the threat and the effectiveness of the proposed attack.
- Abstract(参考訳): ローカルディファレンシャルプライバシ(LDP)は、信頼できないデータコレクタが、プライバシに違反することなく、ユーザのデータを集約する方法を提供する。
周波数推定、頻繁なアイテムセットマイニング、機械学習など、LDPの保護の下で、さまざまなプライバシー保護データ分析タスクが研究されている。
プライバシー保護の特性にもかかわらず、最近の研究はデータ中毒攻撃に対する特定のLDPプロトコルの脆弱性を実証している。
しかし、既存のデータ中毒攻撃は、周波数推定や平均/分散推定など、LDPの基本統計に焦点が当てられている。
重要なデータ分析タスクとして, LDPの頻繁なアイテムセットマイニングの安全性については, まだ十分に検討されていない。
本稿では, LDPの頻繁なマイニングプロトコルに対する, 新規かつ実用的なデータ中毒攻撃を提示することによって, この問題に対処することを目的とする。
構成可能な攻撃操作を備えた統合攻撃フレームワークを導入することで、我々のデータ中毒攻撃は、最先端のLPP頻繁なマイニングプロトコルをうまく操作することができ、同様の構造を持つ他のプロトコルに適応する可能性がある。
我々は,提案した攻撃と4つのベースライン攻撃を比較するために,3つのデータセットに関する広範な実験を行った。
その結果、脅威の深刻さと、提案した攻撃の有効性が示された。
関連論文リスト
- Poisoning Attacks to Local Differential Privacy Protocols for Trajectory Data [14.934626547047763]
地理的な位置からの動きを追跡するトラジェクトリデータは、現実世界のアプリケーションを改善するために不可欠である。
ローカルディファレンシャルプライバシ(LDP)は、個人が自分の軌跡データを共有する前に局所的に摂動できるようにするソリューションを提供する。
プライバシー上の利点にもかかわらず、LDPプロトコルはデータ中毒攻撃に対して脆弱であり、攻撃者は偽のデータを注入して集約された結果を操作する。
論文 参考訳(メタデータ) (2025-03-06T02:31:45Z) - Data Poisoning Attacks to Locally Differentially Private Range Query Protocols [15.664794320925562]
ローカル微分プライバシー(LDP)は、分散データ収集においてユーザのプライバシを保護するために広く採用されている。
近年の研究では、LDPプロトコルがデータ中毒攻撃に弱いことが判明している。
本稿では LDP 範囲のクエリプロトコルをターゲットとしたデータ中毒攻撃に関する最初の研究について述べる。
論文 参考訳(メタデータ) (2025-03-05T12:40:34Z) - UTrace: Poisoning Forensics for Private Collaborative Learning [8.161400729150209]
我々は、マシンラーニング(PPML)における中毒攻撃のユーザレベルトレースバックのためのフレームワークであるUTraceを紹介する。
UTraceは低毒性率で有効であり、複数のデータ所有者に分散した攻撃に対して耐性がある。
10件の中毒に対するUTraceの有効性を示した。
論文 参考訳(メタデータ) (2024-09-23T15:32:46Z) - On the Robustness of LDP Protocols for Numerical Attributes under Data Poisoning Attacks [17.351593328097977]
ローカルディファレンシャルプライバシ(LDP)プロトコルは、データ中毒攻撃に対して脆弱である。
この脆弱性は、敵対的環境におけるLDPの堅牢性と信頼性に関する懸念を引き起こす。
論文 参考訳(メタデータ) (2024-03-28T15:43:38Z) - LDPRecover: Recovering Frequencies from Poisoning Attacks against Local Differential Privacy [11.180950585234305]
周波数推定のためのローカルディファレンシャルプライバシ(LDP)プロトコルは、毒性攻撃に対して脆弱である。
毒殺事件から正確な集積周波数を復元する手法であるLPPRecoverを提案する。
以上の結果から, LDPRecoverは様々な毒素攻撃に対して, 正確かつ広く適用可能であることが示唆された。
論文 参考訳(メタデータ) (2024-03-14T12:57:20Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - Defending Pre-trained Language Models as Few-shot Learners against
Backdoor Attacks [72.03945355787776]
軽快でプラガブルで効果的な PLM 防御である MDP を,少人数の学習者として提唱する。
我々は,MDPが攻撃の有効性と回避性の両方を選択できる興味深いジレンマを発生させることを解析的に示す。
論文 参考訳(メタデータ) (2023-09-23T04:41:55Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - Temporal Robustness against Data Poisoning [69.01705108817785]
データ中毒は、悪意のあるトレーニングデータを通じて、敵対者が機械学習アルゴリズムの振る舞いを操作する場合を考慮している。
本研究では,攻撃開始時間と攻撃持続時間を測定する2つの新しい指標である耳線と持続時間を用いたデータ中毒の時間的脅威モデルを提案する。
論文 参考訳(メタデータ) (2023-02-07T18:59:19Z) - Defening against Adversarial Denial-of-Service Attacks [0.0]
データ中毒は、機械学習とデータ駆動技術に対する最も関連するセキュリティ脅威の1つです。
我々は,dos有毒なインスタンスを検出する新しい手法を提案する。
2つのdos毒殺攻撃と7つのデータセットに対する我々の防御を評価し、毒殺事例を確実に特定できることを確認します。
論文 参考訳(メタデータ) (2021-04-14T09:52:36Z) - Defending Regression Learners Against Poisoning Attacks [25.06658793731661]
N-LIDと呼ばれる新しい局所固有次元(LID)に基づく測度を導入し,その近傍データ点のLIDの局所偏差を測定する。
N-LIDは、正常なサンプルから有毒なサンプルを識別し、攻撃者を仮定しないN-LIDベースの防御アプローチを提案する。
提案した防御機構は,予測精度(未固定リッジモデルと比較して最大76%低いMSE)とランニング時間において,より優れることを示す。
論文 参考訳(メタデータ) (2020-08-21T03:02:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。