論文の概要: PEEL: A Poisoning-Exposing Encoding Theoretical Framework for Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2510.26102v1
- Date: Thu, 30 Oct 2025 03:29:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.644594
- Title: PEEL: A Poisoning-Exposing Encoding Theoretical Framework for Local Differential Privacy
- Title(参考訳): PEEL: 局所微分プライバシーのための論理的フレームワーク
- Authors: Lisha Shuai, Jiuling Dong, Nan Zhang, Shaofeng Tan, Haokun Zhang, Zilong Song, Gaoya Dong, Xiaolong Yang,
- Abstract要約: ローカル微分プライバシ(LDP)はIoT(Internet of Things)において広く採用されているプライバシ保護モデルである
本稿では, LDP に対する Pisoning-Exposing intrusive framework であるPEEL を提案する。
非侵襲的な後処理モジュールとして、PEELはLPP摂動データを再エンコードすることで中毒効果を増幅する。
評価の結果, LDP統合PEELは, 毒性暴露の精度で4つの最先端の防御性能に優れていた。
- 参考スコア(独自算出の注目度): 7.708706339295922
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Local Differential Privacy (LDP) is a widely adopted privacy-protection model in the Internet of Things (IoT) due to its lightweight, decentralized, and scalable nature. However, it is vulnerable to poisoning attacks, and existing defenses either incur prohibitive resource overheads or rely on domain-specific prior knowledge, limiting their practical deployment. To address these limitations, we propose PEEL, a Poisoning-Exposing Encoding theoretical framework for LDP, which departs from resource- or prior-dependent countermeasures and instead leverages the inherent structural consistency of LDP-perturbed data. As a non-intrusive post-processing module, PEEL amplifies stealthy poisoning effects by re-encoding LDP-perturbed data via sparsification, normalization, and low-rank projection, thereby revealing both output and rule poisoning attacks through structural inconsistencies in the reconstructed space. Theoretical analysis proves that PEEL, integrated with LDP, retains unbiasedness and statistical accuracy, while being robust to expose both output and rule poisoning attacks. Moreover, evaluation results show that LDP-integrated PEEL not only outperforms four state-of-the-art defenses in terms of poisoning exposure accuracy but also significantly reduces client-side computational costs, making it highly suitable for large-scale IoT deployments.
- Abstract(参考訳): ローカル微分プライバシ(LDP)は、軽量で分散型でスケーラブルな性質のため、IoT(Internet of Things)において広く採用されているプライバシ保護モデルである。
しかし、これは毒攻撃に弱いため、既存の防御は禁止されたリソースのオーバーヘッドを発生させるか、ドメイン固有の事前知識に依存し、実際の配備を制限する。
これらの制約に対処するために,資源依存や事前依存の対策から外れたLPPのPhoisoning-Exposing Encoding理論フレームワークPEELを提案する。
非侵襲的な後処理モジュールとして、PEELは、スペーシフィケーション、正規化、ローランクプロジェクションを介してLPP摂動データを再エンコードすることでステルス毒効果を増幅し、再構成空間における構造的不整合による出力とルール中毒攻撃の両方を明らかにする。
理論的分析により、PEELはLPPと統合され、不偏性と統計的精度を維持し、出力とルール中毒の攻撃を露呈する。
さらに, LDP 統合 PEEL は, 暴露精度の点で4つの最先端の防御性能を上回るだけでなく, クライアント側の計算コストを大幅に削減し, 大規模IoT 展開に極めて適していることを示す。
関連論文リスト
- On Evaluating the Poisoning Robustness of Federated Learning under Local Differential Privacy [12.421658400381082]
LDPFL設定に適した新規かつモデル中毒攻撃フレームワークを提案する。
我々のアプローチは、ローカルなプライバシー制約に固執しながら、グローバルなトレーニング損失を最大化することを目的としています。
我々は3つの代表的なLDPFLプロトコル、3つのベンチマークデータセット、2種類のディープニューラルネットワークでフレームワークを評価した。
論文 参考訳(メタデータ) (2025-09-05T17:23:03Z) - Cannot See the Forest for the Trees: Invoking Heuristics and Biases to Elicit Irrational Choices of LLMs [83.11815479874447]
本研究では,人間の認知における認知的分解と偏見に触発された新しいジェイルブレイク攻撃フレームワークを提案する。
我々は、悪意のあるプロンプトの複雑さと関連バイアスを減らし、認知的分解を用いて、プロンプトを再編成する。
また、従来の二分的成功または失敗のパラダイムを超越したランキングベースの有害度評価指標も導入する。
論文 参考訳(メタデータ) (2025-05-03T05:28:11Z) - PoisonCatcher: Revealing and Identifying LDP Poisoning Attacks in IIoT [13.68394346583211]
ローカル微分プライバシー(LDP)は、軽量で分散化されスケーラブルであるため、産業用IoT(Industrial Internet of Things)で広く採用されている。
本研究は,資源豊富なアグリゲータにおけるIIoTに対するLDP中毒防御法を提案する。
論文 参考訳(メタデータ) (2024-12-20T09:26:50Z) - Revisiting Essential and Nonessential Settings of Evidential Deep Learning [70.82728812001807]
Evidential Deep Learning (EDL) は不確実性推定の新しい手法である。
本報告では,EDLの簡易かつ効果的な拡張型であるRe-EDLを提案する。
論文 参考訳(メタデータ) (2024-10-01T04:27:07Z) - On the Robustness of LDP Protocols for Numerical Attributes under Data Poisoning Attacks [17.351593328097977]
ローカルディファレンシャルプライバシ(LDP)プロトコルは、データ中毒攻撃に対して脆弱である。
この脆弱性は、敵対的環境におけるLDPの堅牢性と信頼性に関する懸念を引き起こす。
論文 参考訳(メタデータ) (2024-03-28T15:43:38Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z) - Unveiling Vulnerabilities of Contrastive Recommender Systems to Poisoning Attacks [48.911832772464145]
コントラスト学習(CL)は近年,レコメンダシステムの領域で注目されている。
本稿では,CLをベースとしたレコメンデータシステムの脆弱性を明らかにする。
論文 参考訳(メタデータ) (2023-11-30T04:25:28Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。