論文の概要: Interpreting Network Differential Privacy
- arxiv url: http://arxiv.org/abs/2504.12520v1
- Date: Wed, 16 Apr 2025 22:45:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:37:09.040892
- Title: Interpreting Network Differential Privacy
- Title(参考訳): ネットワーク差分プライバシーの解釈
- Authors: Jonathan Hehir, Xiaoyue Niu, Aleksandra Slavkovic,
- Abstract要約: 私たちは、一般的なネットワークDP(varepsilon$-edge DP)の形式を深く掘り下げて、その一般的な解釈の多くが欠陥があることを確認します。
我々は、DPの下で実際に保護されている仮説と、共通の主張によって保護されているという仮説とのギャップを実証する。
- 参考スコア(独自算出の注目度): 44.99833362998488
- License:
- Abstract: How do we interpret the differential privacy (DP) guarantee for network data? We take a deep dive into a popular form of network DP ($\varepsilon$--edge DP) to find that many of its common interpretations are flawed. Drawing on prior work for privacy with correlated data, we interpret DP through the lens of adversarial hypothesis testing and demonstrate a gap between the pairs of hypotheses actually protected under DP (tests of complete networks) and the sorts of hypotheses implied to be protected by common claims (tests of individual edges). We demonstrate some conditions under which this gap can be bridged, while leaving some questions open. While some discussion is specific to edge DP, we offer selected results in terms of abstract DP definitions and provide discussion of the implications for other forms of network DP.
- Abstract(参考訳): ネットワークデータの差分プライバシー(DP)保証をどう解釈するか?
私たちは、一般的なネットワークDP(\varepsilon$-edge DP)の形式を深く掘り下げて、その一般的な解釈の多くが欠陥があることに気付きました。
相関データを用いたプライバシに関する事前の作業に基づいて、敵仮説テストのレンズを通してDPを解釈し、DPで実際に保護されている仮説のペア(完全なネットワークのテスト)と、共通の主張(個々のエッジのテスト)によって保護されている仮説の種類のギャップを示す。
我々は、このギャップを埋めることのできる条件をいくつか示し、いくつかの質問を開いている。
いくつかの議論はエッジDPに特化しているが、抽象DP定義の観点から選択された結果を提供し、他の形態のネットワークDPに対する影響について考察する。
関連論文リスト
- Comparing privacy notions for protection against reconstruction attacks in machine learning [10.466570297146953]
機械学習コミュニティでは、再構築攻撃が主要な関心事であり、統合学習(FL)においても特定されている。
これらの脅威に対して、プライバシーコミュニティは、DP-SGDと呼ばれる勾配降下アルゴリズムにおける差分プライバシー(DP)の使用を推奨している。
本稿では,プライバシ保証の異なる概念とメカニズムを比較するための基礎的枠組みを構築した。
論文 参考訳(メタデータ) (2025-02-06T13:04:25Z) - The Limits of Differential Privacy in Online Learning [11.099792269219124]
DP,純DP,近似DPの3種類の制約を分離する証拠を提示する。
まず、近似DPではオンライン学習可能であるが、適応的逆数設定では純粋DPではオンライン学習できない仮説クラスについて述べる。
そして、どんなオンライン学習者でも、ほぼ全ての仮説クラスに対して無限の誤りを犯さなければならないことを証明します。
論文 参考訳(メタデータ) (2024-11-08T11:21:31Z) - Granularity is crucial when applying differential privacy to text: An investigation for neural machine translation [13.692397169805806]
差分プライバシー(DP)は、NLPでますます人気が高まっている。
DPが適用される粒度の選択はしばしば無視される。
以上の結果から, 文書レベルのNMTシステムは, メンバーシップ推論攻撃に対する耐性が高いことが示唆された。
論文 参考訳(メタデータ) (2024-07-26T14:52:37Z) - How Private are DP-SGD Implementations? [61.19794019914523]
2種類のバッチサンプリングを使用する場合、プライバシ分析の間に大きなギャップがあることが示される。
その結果,2種類のバッチサンプリングでは,プライバシ分析の間に大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2024-03-26T13:02:43Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Generalised Likelihood Ratio Testing Adversaries through the
Differential Privacy Lens [69.10072367807095]
微分プライバシー(DP)は、最適な敵の能力に厳格な上限を提供する。
我々は,NPO(Neyman-Pearson-Pearson-Pearson-Pearson-Pearson-Pearson)対GLRT(Generalized Likelihood Test)対向の仮定を緩和する。
この緩やかな緩和は、プライバシー保証の改善につながる。
論文 参考訳(メタデータ) (2022-10-24T08:24:10Z) - Differentially Private Bayesian Neural Networks on Accuracy, Privacy and
Reliability [18.774153273396244]
ベイズニューラルネットワーク(BNN)におけるプライバシと精度のトレードオフを分析する
同一ネットワークアーキテクチャにおける重みの不確かさを特徴付ける3つのDP-BNNを提案する。
我々はDP-SGLDとDP-SGLDの新たな等価性を示す。
論文 参考訳(メタデータ) (2021-07-18T14:37:07Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z) - Three Variants of Differential Privacy: Lossless Conversion and
Applications [13.057076084452016]
本稿では,3種類の差分プライバシー(DP),すなわち近似DP,R'enyi RDP,仮説テストについて考察する。
まず, 2 つの$f$-divergences の結合範囲に基づいて, DP と反復を関連付ける機械を開発する。
アプリケーションとして、ノイズ勾配勾配のプライバシー保証を特徴付けるモーメントフレームワークに適用する。
論文 参考訳(メタデータ) (2020-08-14T18:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。