論文の概要: A Refreshment Stirred, Not Shaken (III): Can Swapping Be Differentially Private?
- arxiv url: http://arxiv.org/abs/2504.15246v1
- Date: Mon, 21 Apr 2025 17:19:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 14:24:56.911712
- Title: A Refreshment Stirred, Not Shaken (III): Can Swapping Be Differentially Private?
- Title(参考訳): Refreshment Stirred, Not Shaken (III): Swapping be Differentially Private?
- Authors: James Bailie, Ruobin Gong, Xiao-Li Meng,
- Abstract要約: 論文のタイトルの質問に対する正確で文脈的に根拠づけられた回答の探求は、この理論上の差分プライバシーの基礎となった(例えばDP$2014$)。
本稿は, 先行する2つの部分の要約と, 新たな議論であるx2014$, 例えば, ビルディングブロックの認知度を高めることで, プライバシーを損なうことができるかについて述べる。
- 参考スコア(独自算出の注目度): 4.540236408836132
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The quest for a precise and contextually grounded answer to the question in the present paper's title resulted in this stirred-not-shaken triptych, a phrase that reflects our desire to deepen the theoretical basis, broaden the practical applicability, and reduce the misperception of differential privacy (DP)$\unicode{x2014}$all without shaking its core foundations. Indeed, given the existence of more than 200 formulations of DP (and counting), before even attempting to answer the titular question one must first precisely specify what it actually means to be DP. Motivated by this observation, a theoretical investigation into DP's fundamental essence resulted in Part I of this trio, which introduces a five-building-block system explicating the who, where, what, how and how much aspects of DP. Instantiating this system in the context of the United States Decennial Census, Part II then demonstrates the broader applicability and relevance of DP by comparing a swapping strategy like that used in 2010 with the TopDown Algorithm$\unicode{x2014}$a DP method adopted in the 2020 Census. This paper provides nontechnical summaries of the preceding two parts as well as new discussion$\unicode{x2014}$for example, on how greater awareness of the five building blocks can thwart privacy theatrics; how our results bridging traditional SDC and DP allow a data custodian to reap the benefits of both these fields; how invariants impact disclosure risk; and how removing the implicit reliance on aleatoric uncertainty could lead to new generalizations of DP.
- Abstract(参考訳): 本論文の題名における質問に対する正確かつ文脈的に根拠づけられた回答の探求の結果、この揺らぎない三部構成は、理論的な基礎を深くし、実践的適用性を広げ、基本基盤を揺さぶることなく差分プライバシー(DP)$\unicode{x2014}$allの誤認を減らすという我々の願望を反映したものである。
実際、200以上のDPの定式化(および数え方)が存在することを考えると、ティトラルな疑問に答えようとする前に、最初にDPとは実際に何を意味するのかを正確に特定しなければならない。
この観察に動機づけられたDPの基本原理に関する理論的調査は、DPのどの側面、どのように、どのように、どのように、どのように、どの程度の側面を説明できる5つのビルディングブロックシステムを導入し、その第1部となった。
第2部では、2010年のTopDown Algorithm$\unicode{x2014}$a DP法と、2020年国勢調査で採用したTopDown Algorithm$\unicode{x2014}$a DP法とを比較して、DPの広範な適用性と妥当性を実証している。
本稿は,先行する2つの部分の非技術的要約に加えて,新たな議論である$\unicode{x2014}$,例えば,5つのビルディングブロックに対する認識の高まりが,プライバシ劇場を脅かすか,従来のSDCとDPを橋渡しすることで,データカストディアンがこれらの分野のメリットを享受できるか,不変値が開示リスクにどのように影響するか,また,アレータ的不確実性への暗黙的な依存を取り除くことが,DPの新たな一般化につながるか,などについて述べる。
関連論文リスト
- Interpreting Network Differential Privacy [44.99833362998488]
私たちは、一般的なネットワークDP(varepsilon$-edge DP)の形式を深く掘り下げて、その一般的な解釈の多くが欠陥があることを確認します。
我々は、DPの下で実際に保護されている仮説と、共通の主張によって保護されているという仮説とのギャップを実証する。
論文 参考訳(メタデータ) (2025-04-16T22:45:07Z) - Comparing privacy notions for protection against reconstruction attacks in machine learning [10.466570297146953]
機械学習コミュニティでは、再構築攻撃が主要な関心事であり、統合学習(FL)においても特定されている。
これらの脅威に対して、プライバシーコミュニティは、DP-SGDと呼ばれる勾配降下アルゴリズムにおける差分プライバシー(DP)の使用を推奨している。
本稿では,プライバシ保証の異なる概念とメカニズムを比較するための基礎的枠組みを構築した。
論文 参考訳(メタデータ) (2025-02-06T13:04:25Z) - A Refreshment Stirred, Not Shaken (II): Invariant-Preserving Deployments of Differential Privacy for the US Decennial Census [4.540236408836132]
我々は,アメリカ十年国勢調査における統計的制御法(SDC)を開発した。
PSAアルゴリズムは差分プライバシー(DP)と整合可能な不変$varepsilon$sを誘導することを示した。
私たちの結果は、PSAが提供するSDCの保証を詳細に説明しますが、DASと2020年DASは、一般的に、実際のプライバシ保護に対してx2013$とされなければなりません。
論文 参考訳(メタデータ) (2025-01-14T21:38:01Z) - Verified Foundations for Differential Privacy [7.790536155623866]
SampCertは、ディファレンシャルプライバシのための、初めての包括的で機械化された基盤です。
これはDPの一般的な概念であり、DP機構の構築と構成のためのフレームワークであり、Laplace と Gaussian のサンプリングアルゴリズムの実装を正式に検証している。
実際、SampCertの検証されたアルゴリズムは、Amazon Web Services(AWS)のDPサービスを動かしている。
論文 参考訳(メタデータ) (2024-12-02T16:19:47Z) - How Private are DP-SGD Implementations? [61.19794019914523]
2種類のバッチサンプリングを使用する場合、プライバシ分析の間に大きなギャップがあることが示される。
その結果,2種類のバッチサンプリングでは,プライバシ分析の間に大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2024-03-26T13:02:43Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Normalized/Clipped SGD with Perturbation for Differentially Private
Non-Convex Optimization [94.06564567766475]
DP-SGDとDP-NSGDは、センシティブなトレーニングデータを記憶する大規模モデルのリスクを軽減する。
DP-NSGD は DP-SGD よりも比較的チューニングが比較的容易であるのに対して,これらの2つのアルゴリズムは同様の精度を実現する。
論文 参考訳(メタデータ) (2022-06-27T03:45:02Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z) - Three Variants of Differential Privacy: Lossless Conversion and
Applications [13.057076084452016]
本稿では,3種類の差分プライバシー(DP),すなわち近似DP,R'enyi RDP,仮説テストについて考察する。
まず, 2 つの$f$-divergences の結合範囲に基づいて, DP と反復を関連付ける機械を開発する。
アプリケーションとして、ノイズ勾配勾配のプライバシー保証を特徴付けるモーメントフレームワークに適用する。
論文 参考訳(メタデータ) (2020-08-14T18:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。