論文の概要: Connect the dots: Dataset Condensation, Differential Privacy, and
Adversarial Uncertainty
- arxiv url: http://arxiv.org/abs/2402.10423v1
- Date: Fri, 16 Feb 2024 03:12:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 17:57:42.477556
- Title: Connect the dots: Dataset Condensation, Differential Privacy, and
Adversarial Uncertainty
- Title(参考訳): ドットを接続する:データセットの凝縮、差分プライバシー、および逆不確実性
- Authors: Kenneth Odoh
- Abstract要約: この研究は、(epsilon$, $delta$)-差分プライバシーとの接続を描画することで、データセットの凝縮の基盤となるメカニズムを理解することに重点を置いている。
最適雑音レベルを達成するのに最適な手法として,逆不確実性法として$epsilon$が提案される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Our work focuses on understanding the underpinning mechanism of dataset
condensation by drawing connections with ($\epsilon$, $\delta$)-differential
privacy where the optimal noise, $\epsilon$, is chosen by adversarial
uncertainty \cite{Grining2017}. We can answer the question about the inner
workings of the dataset condensation procedure. Previous work \cite{dong2022}
proved the link between dataset condensation (DC) and ($\epsilon$,
$\delta$)-differential privacy. However, it is unclear from existing works on
ablating DC to obtain a lower-bound estimate of $\epsilon$ that will suffice
for creating high-fidelity synthetic data. We suggest that adversarial
uncertainty is the most appropriate method to achieve an optimal noise level,
$\epsilon$. As part of the internal dynamics of dataset condensation, we adopt
a satisfactory scheme for noise estimation that guarantees high-fidelity data
while providing privacy.
- Abstract(参考訳): 我々の研究は、最適なノイズである$\epsilon$が逆不確実性 \cite{grining2017} によって選択される($\epsilon$,$\delta$) 微分プライバシーとの接続を引いてデータセット凝縮の基盤メカニズムを理解することに焦点を当てています。
データセットの凝縮手順の内部動作に関する疑問に答えることができる。
以前の作業 \cite{dong2022} は、データセットの凝縮(DC)と($\epsilon$, $\delta$)-差分プライバシーの関連性を証明した。
しかし、高忠実性合成データを作成するのに十分である$\epsilon$の低いバウンドの見積もりを得るためにDCを非難する既存の研究から明らかでない。
対向不確実性は最適な雑音レベル、$\epsilon$を達成するための最も適切な方法である。
データセットの凝縮に関する内部ダイナミクスの一部として,プライバシを提供しながら忠実度の高いデータを保証するノイズ推定方式を採用する。
関連論文リスト
- A Generalized Shuffle Framework for Privacy Amplification: Strengthening Privacy Guarantees and Enhancing Utility [4.7712438974100255]
パーソナライズされたプライバシパラメータで$(epsilon_i,delta_i)$-PLDP設定をシャッフルする方法を示す。
shuffled $(epsilon_i,delta_i)$-PLDP process approximately saves $mu$-Gaussian Differential Privacy with mu = sqrtfrac2sum_i=1n frac1-delta_i1+eepsilon_i-max_ifrac1-delta_i1+e
論文 参考訳(メタデータ) (2023-12-22T02:31:46Z) - High-probability Convergence Bounds for Nonlinear Stochastic Gradient Descent Under Heavy-tailed Noise [59.25598762373543]
重み付き雑音の存在下でのストリーミングデータにおける学習の精度保証について検討した。
解析的に、与えられた問題に対する設定の選択に$ta$を使うことができることを実証する。
論文 参考訳(メタデータ) (2023-10-28T18:53:41Z) - On the Inherent Privacy Properties of Discrete Denoising Diffusion Models [17.773335593043004]
本稿では、離散拡散モデルに固有のプライバシー保護の先駆的な理論的探索について述べる。
我々のフレームワークは、トレーニングデータセット内の各データポイントの潜在的なプライバシー漏洩を解明する。
当社のバウンダリは、$$$サイズのデータポイントによるトレーニングが、プライバシー漏洩の急増につながっていることも示しています。
論文 参考訳(メタデータ) (2023-10-24T05:07:31Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Privacy for Free: How does Dataset Condensation Help Privacy? [21.418263507735684]
私たちは、データセット凝縮(DC)が、プライベートデータ生成のために従来のデータジェネレータを置き換えるためのより良いソリューションであることも確認しています。
我々は、DC合成データの視覚的プライバシとメンバシップのプライバシを、損失ベースと最先端の可能性ベースのメンバシップ推論攻撃の両方を起動することによって実証的に検証する。
論文 参考訳(メタデータ) (2022-06-01T05:39:57Z) - Differential privacy for symmetric log-concave mechanisms [0.0]
データベースクエリ結果にランダムノイズを加えることは、プライバシを達成するための重要なツールである。
我々は、すべての対称および対数凹形ノイズ密度に対して、$(epsilon, delta)$-differential privacyに対して十分かつ必要な条件を提供する。
論文 参考訳(メタデータ) (2022-02-23T10:20:29Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。