論文の概要: Data Poisoning Attacks to Locally Differentially Private Frequent Itemset Mining Protocols
- arxiv url: http://arxiv.org/abs/2406.19466v1
- Date: Thu, 27 Jun 2024 18:11:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 18:51:19.764884
- Title: Data Poisoning Attacks to Locally Differentially Private Frequent Itemset Mining Protocols
- Title(参考訳): 局所的に異なる頻度のアイテムセットマイニングプロトコルに対するデータポジショニング攻撃
- Authors: Wei Tong, Haoyu Chen, Jiacheng Niu, Sheng Zhong,
- Abstract要約: ローカルディファレンシャルプライバシ(LDP)は、信頼できないデータコレクタが、プライバシに違反することなく、ユーザのデータを集約する方法を提供する。
周波数推定、頻繁なアイテムセットマイニング、機械学習など、LDPの保護の下で、さまざまなプライバシー保護データ分析タスクが研究されている。
最近の研究は、データ中毒攻撃に対する特定のLDPプロトコルの脆弱性を実証している。
- 参考スコア(独自算出の注目度): 13.31395140464466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Local differential privacy (LDP) provides a way for an untrusted data collector to aggregate users' data without violating their privacy. Various privacy-preserving data analysis tasks have been studied under the protection of LDP, such as frequency estimation, frequent itemset mining, and machine learning. Despite its privacy-preserving properties, recent research has demonstrated the vulnerability of certain LDP protocols to data poisoning attacks. However, existing data poisoning attacks are focused on basic statistics under LDP, such as frequency estimation and mean/variance estimation. As an important data analysis task, the security of LDP frequent itemset mining has yet to be thoroughly examined. In this paper, we aim to address this issue by presenting novel and practical data poisoning attacks against LDP frequent itemset mining protocols. By introducing a unified attack framework with composable attack operations, our data poisoning attack can successfully manipulate the state-of-the-art LDP frequent itemset mining protocols and has the potential to be adapted to other protocols with similar structures. We conduct extensive experiments on three datasets to compare the proposed attack with four baseline attacks. The results demonstrate the severity of the threat and the effectiveness of the proposed attack.
- Abstract(参考訳): ローカルディファレンシャルプライバシ(LDP)は、信頼できないデータコレクタが、プライバシに違反することなく、ユーザのデータを集約する方法を提供する。
周波数推定、頻繁なアイテムセットマイニング、機械学習など、LDPの保護の下で、さまざまなプライバシー保護データ分析タスクが研究されている。
プライバシー保護の特性にもかかわらず、最近の研究はデータ中毒攻撃に対する特定のLDPプロトコルの脆弱性を実証している。
しかし、既存のデータ中毒攻撃は、周波数推定や平均/分散推定など、LDPの基本統計に焦点が当てられている。
重要なデータ分析タスクとして, LDPの頻繁なアイテムセットマイニングの安全性については, まだ十分に検討されていない。
本稿では, LDPの頻繁なマイニングプロトコルに対する, 新規かつ実用的なデータ中毒攻撃を提示することによって, この問題に対処することを目的とする。
構成可能な攻撃操作を備えた統合攻撃フレームワークを導入することで、我々のデータ中毒攻撃は、最先端のLPP頻繁なマイニングプロトコルをうまく操作することができ、同様の構造を持つ他のプロトコルに適応する可能性がある。
我々は,提案した攻撃と4つのベースライン攻撃を比較するために,3つのデータセットに関する広範な実験を行った。
その結果、脅威の深刻さと、提案した攻撃の有効性が示された。
関連論文リスト
- PoisonCatcher: Revealing and Identifying LDP Poisoning Attacks in IIoT [13.68394346583211]
ローカル微分プライバシー(LDP)は、軽量で分散型でスケーラブルな性質のために、産業用IoT(Industrial Internet of Things)で広く採用されている。
LDPは小さな毒殺に対して多少のレジリエンスを提供するが、動的ネットワークと実質的なリアルタイムデータフローを備えたIIoTでは堅牢性に欠ける。
PDP攻撃を検知し、特定の汚染されたデータポイントを識別する4段階のソリューションであるPoisonCatcherを提案する。
論文 参考訳(メタデータ) (2024-12-20T09:26:50Z) - UTrace: Poisoning Forensics for Private Collaborative Learning [8.161400729150209]
我々は、マシンラーニング(PPML)における中毒攻撃のユーザレベルトレースバックのためのフレームワークであるUTraceを紹介する。
UTraceは低毒性率で有効であり、複数のデータ所有者に分散した攻撃に対して耐性がある。
10件の中毒に対するUTraceの有効性を示した。
論文 参考訳(メタデータ) (2024-09-23T15:32:46Z) - On the Robustness of LDP Protocols for Numerical Attributes under Data Poisoning Attacks [17.351593328097977]
ローカルディファレンシャルプライバシ(LDP)プロトコルは、データ中毒攻撃に対して脆弱である。
この脆弱性は、敵対的環境におけるLDPの堅牢性と信頼性に関する懸念を引き起こす。
論文 参考訳(メタデータ) (2024-03-28T15:43:38Z) - LDPRecover: Recovering Frequencies from Poisoning Attacks against Local Differential Privacy [11.180950585234305]
周波数推定のためのローカルディファレンシャルプライバシ(LDP)プロトコルは、毒性攻撃に対して脆弱である。
毒殺事件から正確な集積周波数を復元する手法であるLPPRecoverを提案する。
以上の結果から, LDPRecoverは様々な毒素攻撃に対して, 正確かつ広く適用可能であることが示唆された。
論文 参考訳(メタデータ) (2024-03-14T12:57:20Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - Defending Pre-trained Language Models as Few-shot Learners against
Backdoor Attacks [72.03945355787776]
軽快でプラガブルで効果的な PLM 防御である MDP を,少人数の学習者として提唱する。
我々は,MDPが攻撃の有効性と回避性の両方を選択できる興味深いジレンマを発生させることを解析的に示す。
論文 参考訳(メタデータ) (2023-09-23T04:41:55Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - Temporal Robustness against Data Poisoning [69.01705108817785]
データ中毒は、悪意のあるトレーニングデータを通じて、敵対者が機械学習アルゴリズムの振る舞いを操作する場合を考慮している。
本研究では,攻撃開始時間と攻撃持続時間を測定する2つの新しい指標である耳線と持続時間を用いたデータ中毒の時間的脅威モデルを提案する。
論文 参考訳(メタデータ) (2023-02-07T18:59:19Z) - Defening against Adversarial Denial-of-Service Attacks [0.0]
データ中毒は、機械学習とデータ駆動技術に対する最も関連するセキュリティ脅威の1つです。
我々は,dos有毒なインスタンスを検出する新しい手法を提案する。
2つのdos毒殺攻撃と7つのデータセットに対する我々の防御を評価し、毒殺事例を確実に特定できることを確認します。
論文 参考訳(メタデータ) (2021-04-14T09:52:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。