論文の概要: LDPRecover: Recovering Frequencies from Poisoning Attacks against Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2403.09351v1
- Date: Thu, 14 Mar 2024 12:57:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-17 13:28:07.659714
- Title: LDPRecover: Recovering Frequencies from Poisoning Attacks against Local Differential Privacy
- Title(参考訳): LDPRecover: ローカルな差別的プライバシーに対する攻撃から頻度を回収する
- Authors: Xinyue Sun, Qingqing Ye, Haibo Hu, Jiawei Duan, Tianyu Wo, Jie Xu, Renyu Yang,
- Abstract要約: 周波数推定のためのローカルディファレンシャルプライバシ(LDP)プロトコルは、毒性攻撃に対して脆弱である。
毒殺事件から正確な集積周波数を復元する手法であるLPPRecoverを提案する。
以上の結果から, LDPRecoverは様々な毒素攻撃に対して, 正確かつ広く適用可能であることが示唆された。
- 参考スコア(独自算出の注目度): 11.180950585234305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Local differential privacy (LDP), which enables an untrusted server to collect aggregated statistics from distributed users while protecting the privacy of those users, has been widely deployed in practice. However, LDP protocols for frequency estimation are vulnerable to poisoning attacks, in which an attacker can poison the aggregated frequencies by manipulating the data sent from malicious users. Therefore, it is an open challenge to recover the accurate aggregated frequencies from poisoned ones. In this work, we propose LDPRecover, a method that can recover accurate aggregated frequencies from poisoning attacks, even if the server does not learn the details of the attacks. In LDPRecover, we establish a genuine frequency estimator that theoretically guides the server to recover the frequencies aggregated from genuine users' data by eliminating the impact of malicious users' data in poisoned frequencies. Since the server has no idea of the attacks, we propose an adaptive attack to unify existing attacks and learn the statistics of the malicious data within this adaptive attack by exploiting the properties of LDP protocols. By taking the estimator and the learning statistics as constraints, we formulate the problem of recovering aggregated frequencies to approach the genuine ones as a constraint inference (CI) problem. Consequently, the server can obtain accurate aggregated frequencies by solving this problem optimally. Moreover, LDPRecover can serve as a frequency recovery paradigm that recovers more accurate aggregated frequencies by integrating attack details as new constraints in the CI problem. Our evaluation on two real-world datasets, three LDP protocols, and untargeted and targeted poisoning attacks shows that LDPRecover is both accurate and widely applicable against various poisoning attacks.
- Abstract(参考訳): ローカルディファレンシャルプライバシ(LDP)は、信頼できないサーバが、それらのユーザのプライバシを保護しながら、分散ユーザから集約された統計データを収集することを可能にするもので、実際に広くデプロイされている。
しかし、周波数推定のためのLDPプロトコルは、悪意のあるユーザから送られたデータを操作することで、攻撃者が集約された周波数に毒を盛る攻撃に対して脆弱である。
したがって、毒物から正確な集積周波数を回収することはオープンな課題である。
本研究では,サーバが攻撃の詳細を学ばなくても,攻撃から正確な集積周波数を復元する手法であるLDPRecoverを提案する。
LDPRecoverでは、悪意のあるユーザデータの影響を排除し、サーバが真のユーザデータから集約された頻度を回復するよう理論的に誘導する真の頻度推定器を確立する。
サーバは攻撃を知らないので,既存の攻撃を統一する適応攻撃を提案し,この適応攻撃における悪意のあるデータの統計を LDP プロトコルの特性を利用して学習する。
推定器と学習統計を制約とすることにより、集約された周波数を復元する問題を定式化し、実際の周波数を制約推論(CI)問題としてアプローチする。
これにより、サーバはこの問題を最適に解き、正確な集約周波数を得ることができる。
さらに、LDPRecoverは、CI問題における新たな制約として攻撃の詳細を統合することで、より正確な集約された周波数を回復する周波数回復パラダイムとして機能する。
実世界の2つのデータセット,3つの LDP プロトコル,および未標的および標的の毒殺攻撃に対する評価は,LDPRecover が様々な毒殺攻撃に対して正確かつ広く適用可能であることを示している。
関連論文リスト
- Defending Against Repetitive-based Backdoor Attacks on Semi-supervised Learning through Lens of Rate-Distortion-Perception Trade-off [20.713624299599722]
半教師付き学習(SSL)は、わずかなラベル付きデータで顕著なパフォーマンスを達成した。
信頼できないデータの大規模なプールは、データ中毒に極めて脆弱であり、バックドア攻撃につながる可能性がある。
トリガーパターンとターゲットクラスの関係を阻害する新しい手法であるunlabeled Data Purification (UPure)を提案する。
論文 参考訳(メタデータ) (2024-07-14T12:42:11Z) - Data Poisoning Attacks to Locally Differentially Private Frequent Itemset Mining Protocols [13.31395140464466]
ローカルディファレンシャルプライバシ(LDP)は、信頼できないデータコレクタが、プライバシに違反することなく、ユーザのデータを集約する方法を提供する。
周波数推定、頻繁なアイテムセットマイニング、機械学習など、LDPの保護の下で、さまざまなプライバシー保護データ分析タスクが研究されている。
最近の研究は、データ中毒攻撃に対する特定のLDPプロトコルの脆弱性を実証している。
論文 参考訳(メタデータ) (2024-06-27T18:11:19Z) - SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - On the Robustness of LDP Protocols for Numerical Attributes under Data Poisoning Attacks [17.351593328097977]
ローカルディファレンシャルプライバシ(LDP)プロトコルは、データ中毒攻撃に対して脆弱である。
この脆弱性は、敵対的環境におけるLDPの堅牢性と信頼性に関する懸念を引き起こす。
論文 参考訳(メタデータ) (2024-03-28T15:43:38Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - WPDA: Frequency-based Backdoor Attack with Wavelet Packet Decomposition [30.199136831047063]
この研究は、ディープニューラルネットワーク(DNN)ベースの画像分類、すなわちバックドア攻撃に対する新たなセキュリティ脅威を探究する。
我々はWavelet Packet Decomposition (WPD)による新しい周波数ベースのバックドアアタックを提案する。
CIFAR-10の98.12%の攻撃成功率 (ASR) により, 極めて低い毒性比0。
論文 参考訳(メタデータ) (2024-01-24T16:43:35Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - FIRE: A Failure-Adaptive Reinforcement Learning Framework for Edge Computing Migrations [52.85536740465277]
FIREは、エッジコンピューティングのディジタルツイン環境でRLポリシーをトレーニングすることで、まれなイベントに適応するフレームワークである。
ImREは重要なサンプリングに基づくQ-ラーニングアルゴリズムであり、希少事象をその値関数への影響に比例してサンプリングする。
FIREは故障時にバニラRLやグリーディベースラインと比較してコストを削減できることを示す。
論文 参考訳(メタデータ) (2022-09-28T19:49:39Z) - Autoregressive Perturbations for Data Poisoning [54.205200221427994]
ソーシャルメディアからのデータスクレイピングは、不正なデータの使用に関する懸念が高まっている。
データ中毒攻撃は、スクラップ対策として提案されている。
より広範なデータセットにアクセスせずに有毒なデータを生成できる自動回帰(AR)中毒を導入する。
論文 参考訳(メタデータ) (2022-06-08T06:24:51Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。