論文の概要: On the Robustness of LDP Protocols for Numerical Attributes under Data Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2403.19510v3
- Date: Mon, 15 Jul 2024 01:56:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 01:15:36.263064
- Title: On the Robustness of LDP Protocols for Numerical Attributes under Data Poisoning Attacks
- Title(参考訳): データポジショニング攻撃時の数値属性に対するLPPプロトコルのロバスト性について
- Authors: Xiaoguang Li, Zitao Li, Ninghui Li, Wenhai Sun,
- Abstract要約: ローカルディファレンシャルプライバシ(LDP)プロトコルは、データ中毒攻撃に対して脆弱である。
この脆弱性は、敵対的環境におけるLDPの堅牢性と信頼性に関する懸念を引き起こす。
- 参考スコア(独自算出の注目度): 17.351593328097977
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies reveal that local differential privacy (LDP) protocols are vulnerable to data poisoning attacks where an attacker can manipulate the final estimate on the server by leveraging the characteristics of LDP and sending carefully crafted data from a small fraction of controlled local clients. This vulnerability raises concerns regarding the robustness and reliability of LDP in hostile environments. In this paper, we conduct a systematic investigation of the robustness of state-of-the-art LDP protocols for numerical attributes, i.e., categorical frequency oracles (CFOs) with binning and consistency, and distribution reconstruction. We evaluate protocol robustness through an attack-driven approach and propose new metrics for cross-protocol attack gain measurement. The results indicate that Square Wave and CFO-based protocols in the Server setting are more robust against the attack compared to the CFO-based protocols in the User setting. Our evaluation also unfolds new relationships between LDP security and its inherent design choices. We found that the hash domain size in local-hashing-based LDP has a profound impact on protocol robustness beyond the well-known effect on utility. Further, we propose a zero-shot attack detection by leveraging the rich reconstructed distribution information. The experiment show that our detection significantly improves the existing methods and effectively identifies data manipulation in challenging scenarios.
- Abstract(参考訳): 近年の研究では、LDP(ローカルディファレンシャルプライバシ)プロトコルは、LDPの特性を活用して、少数の制御されたローカルクライアントから慎重にデータを送信することで、攻撃者がサーバ上で最終的な見積を操作できるデータ中毒攻撃に対して脆弱であることが示されている。
この脆弱性は、敵対的環境におけるLDPの堅牢性と信頼性に関する懸念を引き起こす。
本稿では,数値特性,すなわち分類周波数オーラクル(CFO)の結合と整合性,分布再構成に対する最新式LDPプロトコルの堅牢性について,系統的に検討する。
攻撃駆動方式を用いてプロトコルのロバスト性を評価し,クロスプロトコール攻撃ゲイン測定のための新しい指標を提案する。
その結果,サーバ設定におけるSquare WaveとCFOベースのプロトコルは,ユーザ設定におけるCFOベースのプロトコルと比較して,攻撃に対してより堅牢であることが示唆された。
また, LDP のセキュリティと設計選択の新たな関連性についても検討した。
ローカルハッシュベースのLDPにおけるハッシュドメインサイズは、ユーティリティに対するよく知られた影響を超えて、プロトコルの堅牢性に大きな影響を及ぼすことがわかった。
さらに,リッチな再構成分布情報を利用したゼロショット攻撃検出を提案する。
実験の結果,既存の手法を大幅に改善し,挑戦的なシナリオにおけるデータ操作を効果的に識別できることがわかった。
関連論文リスト
- Benchmarking Secure Sampling Protocols for Differential Privacy [3.0325535716232404]
微分プライバシ(DP)の2つのよく知られたモデルは、中心モデルと局所モデルである。
近年,分散環境でのセキュアマルチパーティ計算(MPC)によるDPの実現が提案されている。
論文 参考訳(メタデータ) (2024-09-16T19:04:47Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Data Poisoning Attacks to Locally Differentially Private Frequent Itemset Mining Protocols [13.31395140464466]
ローカルディファレンシャルプライバシ(LDP)は、信頼できないデータコレクタが、プライバシに違反することなく、ユーザのデータを集約する方法を提供する。
周波数推定、頻繁なアイテムセットマイニング、機械学習など、LDPの保護の下で、さまざまなプライバシー保護データ分析タスクが研究されている。
最近の研究は、データ中毒攻撃に対する特定のLDPプロトコルの脆弱性を実証している。
論文 参考訳(メタデータ) (2024-06-27T18:11:19Z) - Stratified Prediction-Powered Inference for Hybrid Language Model Evaluation [62.2436697657307]
予測駆動推論(英: Prediction-powered Inference, PPI)は、人間ラベル付き限られたデータに基づいて統計的推定を改善する手法である。
我々はStratPPI(Stratified Prediction-Powered Inference)という手法を提案する。
単純なデータ階層化戦略を用いることで,基礎的なPPI推定精度を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-06-06T17:37:39Z) - Certifiably Byzantine-Robust Federated Conformal Prediction [49.23374238798428]
本稿では,悪意のあるクライアントに対する堅牢な共形予測を行う新しいフレームワークRob-FCPを提案する。
我々は、さまざまなビザンチン攻撃の下で、悪意のあるクライアントの多様な割合に対するRob-FCPの堅牢性を実証的に実証した。
論文 参考訳(メタデータ) (2024-06-04T04:43:30Z) - Sketches-based join size estimation under local differential privacy [3.0945730947183203]
機密データの結合サイズ推定は、プライバシー漏洩のリスクをもたらす。
ローカルディファレンシャルプライバシ(LDP)は、機密データを収集しながらプライバシを保存するソリューションである。
スケッチベースジョインサイズ推定のための LDPJoinSketch という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-19T01:21:54Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Defending Pre-trained Language Models as Few-shot Learners against
Backdoor Attacks [72.03945355787776]
軽快でプラガブルで効果的な PLM 防御である MDP を,少人数の学習者として提唱する。
我々は,MDPが攻撃の有効性と回避性の両方を選択できる興味深いジレンマを発生させることを解析的に示す。
論文 参考訳(メタデータ) (2023-09-23T04:41:55Z) - Revealing the True Cost of Locally Differentially Private Protocols: An Auditing Perspective [4.5282933786221395]
本稿では,ローカルな差分秘密機構のプライバシー損失を実証的に推定する LDP-Auditor フレームワークについて紹介する。
我々は、異なるエンコーディングや摂動機能の影響など、プライバシー監査に影響を与える要因を幅広く検討する。
LDP-Auditorフレームワークは,現在最先端のLPP Pythonパッケージにバグが発見されている。
論文 参考訳(メタデータ) (2023-09-04T13:29:19Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、学習モデルにおけるプライバシの問題に対処するように設計されている。
新しい分散パラダイムは、データのプライバシを保護するが、サーバがローカルデータセットにアクセスできないため、攻撃面を区別する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - Round-robin differential phase-time-shifting protocol for quantum key
distribution: theory and experiment [58.03659958248968]
量子鍵分布(QKD)は、遠隔者間で共通の暗号鍵の確立を可能にする。
近年,信号の乱れの監視を回避できるQKDプロトコルが提案され,初期の実験で実証されている。
我々は,ラウンドロビン差動位相シフトプロトコルのセキュリティ証明を,集団攻撃シナリオにおいて導出する。
その結果,RRDPTSプロトコルは高い量子ビット誤り率の条件下で,RDPSと比較して高い秘密鍵レートが得られることがわかった。
論文 参考訳(メタデータ) (2021-03-15T15:20:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。