論文の概要: Beyond Membership: Limitations of Add/Remove Adjacency in Differential Privacy
- arxiv url: http://arxiv.org/abs/2511.21804v1
- Date: Wed, 26 Nov 2025 18:55:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.25103
- Title: Beyond Membership: Limitations of Add/Remove Adjacency in Differential Privacy
- Title(参考訳): メンバーシップを超えて - 差分プライバシーにおける追加/削除の制限
- Authors: Gauri Pradhan, Joonas Jälkö, Santiago Zanella-Bèguelin, Antti Honkela,
- Abstract要約: 差分プライバシー(DP)を持つ機械学習モデルのトレーニングは、トレーニングデータに関する機密情報を推測する敵の能力を制限する。
追加/削除されたオーバーステートによるプライバシ会計は、代替の隣接関係による会計に比べ、プライバシに起因していることを示す。
本結果から,DP保証の報告における隣接選択は,保護対象がメンバーシップではなくレコード単位の属性である場合に重要であることが示唆された。
- 参考スコア(独自算出の注目度): 5.27613794836319
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training machine learning models with differential privacy (DP) limits an adversary's ability to infer sensitive information about the training data. It can be interpreted as a bound on adversary's capability to distinguish two adjacent datasets according to chosen adjacency relation. In practice, most DP implementations use the add/remove adjacency relation, where two datasets are adjacent if one can be obtained from the other by adding or removing a single record, thereby protecting membership. In many ML applications, however, the goal is to protect attributes of individual records (e.g., labels used in supervised fine-tuning). We show that privacy accounting under add/remove overstates attribute privacy compared to accounting under the substitute adjacency relation, which permits substituting one record. To demonstrate this gap, we develop novel attacks to audit DP under substitute adjacency, and show empirically that audit results are inconsistent with DP guarantees reported under add/remove, yet remain consistent with the budget accounted under the substitute adjacency relation. Our results highlight that the choice of adjacency when reporting DP guarantees is critical when the protection target is per-record attributes rather than membership.
- Abstract(参考訳): 差分プライバシー(DP)を持つ機械学習モデルのトレーニングは、トレーニングデータに関する機密情報を推測する敵の能力を制限する。
これは、選択された隣接関係に従って隣接する2つのデータセットを識別する敵の能力の束縛と解釈できる。
実際には、ほとんどのDP実装では、追加/削除の隣接関係を使用しており、一方が他方から取得可能な場合、2つのデータセットが隣接している。
しかし、多くのMLアプリケーションでは、個々のレコード(例えば、教師付き微調整に使われるラベル)の属性を保護することが目的である。
追加/削除された過剰状態下でのプライバシ会計は、1つのレコードの置換を可能にする代替的隣接関係下での会計よりもプライバシーに特有であることを示す。
このギャップを示すために,代用隣接条件下でのDP監査のための新たな攻撃を開発し,追加/削除条件下で報告されたDP保証と監査結果は矛盾するが,代用隣接条件下での予算と整合性は保たれていることを実証的に示す。
本結果から,DP保証の報告における隣接選択は,保護対象がメンバーシップではなくレコード単位の属性である場合に重要であることが示唆された。
関連論文リスト
- Correlated-Sequence Differential Privacy [32.411989837842086]
Correlated-Sequence Differential Privacy (CSDP) は、関連するシーケンシャルデータにプライバシを保存するために設計されている。
CSDPは、2つの関連する課題に対処する: 攻撃者が共同時間リンクとクロスシーケンスリンクから得られる余分な情報を定量化し、その情報を隠すのに十分なノイズを追加する。
2シーケンスデータセットのテストでは、CSDPは既存の相関DPメソッドに比べて、プライバシーとユーティリティのトレードオフを約50%改善している。
論文 参考訳(メタデータ) (2025-11-22T11:28:59Z) - VoxGuard: Evaluating User and Attribute Privacy in Speech via Membership Inference Attacks [51.68795949691009]
差分プライバシとメンバシップ推論に基づくフレームワークであるVoxGuardを紹介した。
属性については, 匿名化後も, 性別やアクセントをほぼ完全精度で再現できることが示唆された。
以上の結果から,EERはリークを著しく過小評価し,低FPR評価の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-09-22T20:57:48Z) - Machine Learning with Privacy for Protected Attributes [56.44253915927481]
差分プライバシー(DP)の定義を洗練し、機能差分プライバシー(FDP)と呼ばれるより汎用的で柔軟なフレームワークを作成する。
私たちの定義はシミュレーションに基づいており、プライバシの追加/削除と置き換えの両方が可能で、保護された機能と非保護された機能の任意の分離を処理できます。
各種機械学習タスクにフレームワークを適用し,パブリック機能が利用可能であればDP学習モデルの実用性を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2025-06-24T17:53:28Z) - Differential Privacy in Continual Learning: Which Labels to Update? [14.721537886922864]
継続的な学習は、センシティブなトレーニングデータに必要な厳密なプライバシーと矛盾する。
モデルが出力できるラベルセットを通じて、プライバシの漏洩を説明できないことは、他の有効なDPアルゴリズムのプライバシーを損なう可能性があることを強調する。
論文 参考訳(メタデータ) (2024-11-07T13:08:06Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Conciliating Privacy and Utility in Data Releases via Individual Differential Privacy and Microaggregation [4.287502453001108]
$epsilon$-Differential Privacy(DP)は、強力なプライバシ保証を提供するよく知られたプライバシモデルである。
被験者にDPと同じ保護を提供しながらデータ歪みを低減させるiDP ($epsilon$-individual differential privacy) を提案する。
本稿では,2次データ解析の精度を著しく低下させることのない保護データを提供しながら,我々のアプローチが強力なプライバシ(小額のepsilon$)を提供することを示す実験について報告する。
論文 参考訳(メタデータ) (2023-12-21T10:23:18Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - DTGAN: Differential Private Training for Tabular GANs [6.174448419090292]
本稿では,DTGAN_GとDTGAN_Dの2つの変種からなる条件付きワッサースタインGANであるDTGANを提案する。
我々は,DPの理論的プライバシー保証を,メンバーシップや属性推論攻撃に対して実証的に評価する。
その結果,DP-SGD フレームワークは PATE よりも優れており,DP 判別器の方が訓練収束に最適であることが示唆された。
論文 参考訳(メタデータ) (2021-07-06T10:28:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。