論文の概要: GPM: The Gaussian Pancake Mechanism for Planting Undetectable Backdoors in Differential Privacy
- arxiv url: http://arxiv.org/abs/2509.23834v1
- Date: Sun, 28 Sep 2025 12:14:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.476615
- Title: GPM: The Gaussian Pancake Mechanism for Planting Undetectable Backdoors in Differential Privacy
- Title(参考訳): GPM: 検出不能なバックドアを識別できないプライバシーに植えるガウスのパンケーキ機構
- Authors: Haochen Sun, Xi He,
- Abstract要約: 意図しないプライバシー喪失のいくつかの出来事は、数値的な問題と微分プライバシーソフトウェアの不適切な構成に起因する。
本稿では、広く使われているガウスのメカニズム(GM)と計算的に区別できない新しいメカニズムであるガウスのパンケーキ機構(GPM)を提案する。
GMの数値的な問題による意図しないプライバシの損失とは異なり、GPMはデータプライバシに対する敵対的だが検出不可能なバックドア攻撃である。
- 参考スコア(独自算出の注目度): 4.281902449361707
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differential privacy (DP) has become the gold standard for preserving individual privacy in data analysis. However, an implicit yet fundamental assumption underlying these rigorous privacy guarantees is the correct implementation and execution of DP mechanisms. Several incidents of unintended privacy loss have occurred due to numerical issues and inappropriate configurations of DP software, which have been successfully exploited in privacy attacks. To better understand the seriousness of defective DP software, we ask the following question: is it possible to elevate these passive defects into active privacy attacks while maintaining covertness? To address this question, we present the Gaussian pancake mechanism (GPM), a novel mechanism that is computationally indistinguishable from the widely used Gaussian mechanism (GM), yet exhibits arbitrarily weaker statistical DP guarantees. This unprecedented separation enables a new class of backdoor attacks: by indistinguishably passing off as the authentic GM, GPM can covertly degrade statistical privacy. Unlike the unintentional privacy loss caused by GM's numerical issues, GPM is an adversarial yet undetectable backdoor attack against data privacy. We formally prove GPM's covertness, characterize its statistical leakage, and demonstrate a concrete distinguishing attack that can achieve near-perfect success rates under suitable parameter choices, both theoretically and empirically. Our results underscore the importance of using transparent, open-source DP libraries and highlight the need for rigorous scrutiny and formal verification of DP implementations to prevent subtle, undetectable privacy compromises in real-world systems.
- Abstract(参考訳): 差分プライバシー(DP)は、データ分析における個人のプライバシーを守るための金の標準となっている。
しかし、これらの厳格なプライバシー保証の根底にある暗黙の基本的な前提は、DPメカニズムの正しい実装と実行である。
数値的な問題や、プライバシー攻撃で悪用されたDPソフトウェアの不適切な構成が原因で、意図しないプライバシー喪失がいくつか発生している。
これらの受動的欠陥を隠蔽性を維持しつつ、アクティブなプライバシ攻撃に高めることは可能か?
この問題に対処するために、広く使われているガウスのメカニズム(GM)と計算的に区別できない新しいメカニズムであるガウスのパンケーキ機構(GPM)を提案する。
この前例のない分離により、新しい種類のバックドア攻撃が可能となり、真正なGMとして断絶することで、GPMは統計的プライバシを隠蔽的に低下させることができる。
GMの数値的な問題による意図しないプライバシの損失とは異なり、GPMはデータプライバシに対する敵対的だが検出不可能なバックドア攻撃である。
我々はGPMの隠蔽性を正式に証明し、その統計的漏洩を特徴付けるとともに、理論上も経験的にも、適切なパラメータ選択でほぼ完璧な成功率を達成できる具体的な識別攻撃を実証する。
本結果は,透明でオープンソースのDPライブラリの利用の重要性を強調し,現実のシステムにおける微妙で検出不能なプライバシー侵害を防止するため,厳密な精査とDP実装の形式的検証の必要性を強調した。
関連論文リスト
- Beyond the Worst Case: Extending Differential Privacy Guarantees to Realistic Adversaries [17.780319275883127]
差別化プライバシ(differial Privacy)は、メカニズムの最悪のプライバシー漏洩に結びつく定義のファミリーである。
この研究は、現実のプライバシーリスクを代表する攻撃者の成功について、DPの最悪の保証がどんな意味を持つのかを浮き彫りにしている。
論文 参考訳(メタデータ) (2025-07-10T20:36:31Z) - Machine Learning with Privacy for Protected Attributes [56.44253915927481]
差分プライバシー(DP)の定義を洗練し、機能差分プライバシー(FDP)と呼ばれるより汎用的で柔軟なフレームワークを作成する。
私たちの定義はシミュレーションに基づいており、プライバシの追加/削除と置き換えの両方が可能で、保護された機能と非保護された機能の任意の分離を処理できます。
各種機械学習タスクにフレームワークを適用し,パブリック機能が利用可能であればDP学習モデルの実用性を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2025-06-24T17:53:28Z) - It's Our Loss: No Privacy Amplification for Hidden State DP-SGD With Non-Convex Loss [0.76146285961466]
特定の損失関数に対して、DP-SGDの最終繰り返しは、最終損失関数と同じくらい多くの情報をリークすることを示す。
DP-SGDは一般にすべての(非)損失関数に対してプライバシーの増幅は不可能である。
論文 参考訳(メタデータ) (2024-07-09T01:58:19Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Are We There Yet? Timing and Floating-Point Attacks on Differential Privacy Systems [18.396937775602808]
微分プライベート(DP)システムでよく用いられる雑音発生における2つの実装欠陥について検討する。
まず,浮動小数点表現攻撃に対するガウス機構の感受性について検討する。
第二に、別のチャネルに苦しむラプラスとガウスのメカニズムを個別に研究する。
論文 参考訳(メタデータ) (2021-12-10T02:57:01Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - DP-InstaHide: Provably Defusing Poisoning and Backdoor Attacks with
Differentially Private Data Augmentations [54.960853673256]
混合や無作為な付加ノイズなどの強いデータ拡張は、わずかな精度のトレードオフに耐えながら、毒の攻撃を無効にする。
DP-InstaHideの厳密な分析によると、ミキサップは確かにプライバシー上の利点があり、kウェイミキサップによるトレーニングは、単純DPメカニズムよりも少なくともk倍強いDP保証が得られる。
論文 参考訳(メタデータ) (2021-03-02T23:07:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。