論文の概要: PEEL: A Poisoning-Exposing Encoding Theoretical Framework for Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2510.26102v1
- Date: Thu, 30 Oct 2025 03:29:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.644594
- Title: PEEL: A Poisoning-Exposing Encoding Theoretical Framework for Local Differential Privacy
- Title(参考訳): PEEL: 局所微分プライバシーのための論理的フレームワーク
- Authors: Lisha Shuai, Jiuling Dong, Nan Zhang, Shaofeng Tan, Haokun Zhang, Zilong Song, Gaoya Dong, Xiaolong Yang,
- Abstract要約: ローカル微分プライバシ(LDP)はIoT(Internet of Things)において広く採用されているプライバシ保護モデルである
本稿では, LDP に対する Pisoning-Exposing intrusive framework であるPEEL を提案する。
非侵襲的な後処理モジュールとして、PEELはLPP摂動データを再エンコードすることで中毒効果を増幅する。
評価の結果, LDP統合PEELは, 毒性暴露の精度で4つの最先端の防御性能に優れていた。
- 参考スコア(独自算出の注目度): 7.708706339295922
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Local Differential Privacy (LDP) is a widely adopted privacy-protection model in the Internet of Things (IoT) due to its lightweight, decentralized, and scalable nature. However, it is vulnerable to poisoning attacks, and existing defenses either incur prohibitive resource overheads or rely on domain-specific prior knowledge, limiting their practical deployment. To address these limitations, we propose PEEL, a Poisoning-Exposing Encoding theoretical framework for LDP, which departs from resource- or prior-dependent countermeasures and instead leverages the inherent structural consistency of LDP-perturbed data. As a non-intrusive post-processing module, PEEL amplifies stealthy poisoning effects by re-encoding LDP-perturbed data via sparsification, normalization, and low-rank projection, thereby revealing both output and rule poisoning attacks through structural inconsistencies in the reconstructed space. Theoretical analysis proves that PEEL, integrated with LDP, retains unbiasedness and statistical accuracy, while being robust to expose both output and rule poisoning attacks. Moreover, evaluation results show that LDP-integrated PEEL not only outperforms four state-of-the-art defenses in terms of poisoning exposure accuracy but also significantly reduces client-side computational costs, making it highly suitable for large-scale IoT deployments.
- Abstract(参考訳): ローカル微分プライバシ(LDP)は、軽量で分散型でスケーラブルな性質のため、IoT(Internet of Things)において広く採用されているプライバシ保護モデルである。
しかし、これは毒攻撃に弱いため、既存の防御は禁止されたリソースのオーバーヘッドを発生させるか、ドメイン固有の事前知識に依存し、実際の配備を制限する。
これらの制約に対処するために,資源依存や事前依存の対策から外れたLPPのPhoisoning-Exposing Encoding理論フレームワークPEELを提案する。
非侵襲的な後処理モジュールとして、PEELは、スペーシフィケーション、正規化、ローランクプロジェクションを介してLPP摂動データを再エンコードすることでステルス毒効果を増幅し、再構成空間における構造的不整合による出力とルール中毒攻撃の両方を明らかにする。
理論的分析により、PEELはLPPと統合され、不偏性と統計的精度を維持し、出力とルール中毒の攻撃を露呈する。
さらに, LDP 統合 PEEL は, 暴露精度の点で4つの最先端の防御性能を上回るだけでなく, クライアント側の計算コストを大幅に削減し, 大規模IoT 展開に極めて適していることを示す。
関連論文リスト
- Rethinking the Trust Region in LLM Reinforcement Learning [72.25890308541334]
PPO(Proximal Policy Optimization)は、大規模言語モデル(LLM)のデファクト標準アルゴリズムとして機能する。
より原則的な制約でクリッピングを代用する多変量確率ポリシー最適化(DPPO)を提案する。
DPPOは既存の方法よりも優れたトレーニングと効率を実現し、RLベースの微調整のためのより堅牢な基盤を提供する。
論文 参考訳(メタデータ) (2026-02-04T18:59:04Z) - Mitigating Safety Tax via Distribution-Grounded Refinement in Large Reasoning Models [63.368505631152594]
安全調整は、大きな推論モデル(LRM)の一般的な推論能力を乱す安全税を発生させる。
LRMの安全アライメントに使われる既存のデータセットは、通常、外部のLRMまたは人間のラベルから安全推論の痕跡と回答を蒸留することによって構築される。
本稿では,DGRと呼ばれる安全アライメントデータセット構築手法を提案する。DGRは,既存のアウト・オブ・ディストリビューション型安全推論データセットを改良し,目標のLLM内部分布に適合させる。
論文 参考訳(メタデータ) (2026-02-02T14:18:48Z) - The Eminence in Shadow: Exploiting Feature Boundary Ambiguity for Robust Backdoor Attacks [51.468144272905135]
深層ニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱なままでも重要なアプリケーションを支える。
バックドア攻撃を標的とした理論的解析を行い,不均質なモデル操作を実現するための疎い決定境界に着目した。
エミネンス(Eminence)は、理論的な保証と固有なステルス特性を持つ、説明可能で堅牢なブラックボックスバックドアフレームワークである。
論文 参考訳(メタデータ) (2025-12-11T08:09:07Z) - Cost-Minimized Label-Flipping Poisoning Attack to LLM Alignment [8.88510341003593]
大規模言語モデル(LLM)は、現実のシステムにますますデプロイされ、その脆弱性を理解することが重要になる。
我々は、RLHF/DPO中に嗜好ラベルを反転させることにより、LLMのポリシーを攻撃対象に向けるために必要な最小費用の毒殺攻撃について検討する。
提案手法により,既存のラベルフリップ攻撃の処理を後処理し,ラベルフリップ数を削減するとともに,意図した中毒効果を保ちながらラベルフリップ数を削減できることが示唆された。
論文 参考訳(メタデータ) (2025-11-12T08:27:47Z) - Safe, Efficient, and Robust Reinforcement Learning for Ranking and Diffusion Models [2.231476498067998]
論文は、強化学習手法が安全で、サンプル効率が高く、堅牢であるようにどのように設計できるかを調査する。
コンテキスト帯域RLの統一的な視点から判断されたこの作業は、ランキングとレコメンデーション、テキストから画像への拡散モデルという2つの主要なアプリケーション領域に対処する。
論文 参考訳(メタデータ) (2025-10-17T08:37:38Z) - On Evaluating the Poisoning Robustness of Federated Learning under Local Differential Privacy [12.421658400381082]
LDPFL設定に適した新規かつモデル中毒攻撃フレームワークを提案する。
我々のアプローチは、ローカルなプライバシー制約に固執しながら、グローバルなトレーニング損失を最大化することを目的としています。
我々は3つの代表的なLDPFLプロトコル、3つのベンチマークデータセット、2種類のディープニューラルネットワークでフレームワークを評価した。
論文 参考訳(メタデータ) (2025-09-05T17:23:03Z) - Cannot See the Forest for the Trees: Invoking Heuristics and Biases to Elicit Irrational Choices of LLMs [83.11815479874447]
本研究では,人間の認知における認知的分解と偏見に触発された新しいジェイルブレイク攻撃フレームワークを提案する。
我々は、悪意のあるプロンプトの複雑さと関連バイアスを減らし、認知的分解を用いて、プロンプトを再編成する。
また、従来の二分的成功または失敗のパラダイムを超越したランキングベースの有害度評価指標も導入する。
論文 参考訳(メタデータ) (2025-05-03T05:28:11Z) - PoisonCatcher: Revealing and Identifying LDP Poisoning Attacks in IIoT [13.68394346583211]
ローカル微分プライバシー(LDP)は、軽量で分散化されスケーラブルであるため、産業用IoT(Industrial Internet of Things)で広く採用されている。
本研究は,資源豊富なアグリゲータにおけるIIoTに対するLDP中毒防御法を提案する。
論文 参考訳(メタデータ) (2024-12-20T09:26:50Z) - Revisiting Essential and Nonessential Settings of Evidential Deep Learning [70.82728812001807]
Evidential Deep Learning (EDL) は不確実性推定の新しい手法である。
本報告では,EDLの簡易かつ効果的な拡張型であるRe-EDLを提案する。
論文 参考訳(メタデータ) (2024-10-01T04:27:07Z) - On the Robustness of LDP Protocols for Numerical Attributes under Data Poisoning Attacks [17.351593328097977]
ローカルディファレンシャルプライバシ(LDP)プロトコルは、データ中毒攻撃に対して脆弱である。
この脆弱性は、敵対的環境におけるLDPの堅牢性と信頼性に関する懸念を引き起こす。
論文 参考訳(メタデータ) (2024-03-28T15:43:38Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z) - Unveiling Vulnerabilities of Contrastive Recommender Systems to Poisoning Attacks [48.911832772464145]
コントラスト学習(CL)は近年,レコメンダシステムの領域で注目されている。
本稿では,CLをベースとしたレコメンデータシステムの脆弱性を明らかにする。
論文 参考訳(メタデータ) (2023-11-30T04:25:28Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。