論文の概要: A Unifying Privacy Analysis Framework for Unknown Domain Algorithms in Differential Privacy
- arxiv url: http://arxiv.org/abs/2309.09170v1
- Date: Sun, 17 Sep 2023 05:47:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 04:30:16.330212
- Title: A Unifying Privacy Analysis Framework for Unknown Domain Algorithms in Differential Privacy
- Title(参考訳): 差分プライバシーにおける未知領域アルゴリズムの統一型プライバシ分析フレームワーク
- Authors: Ryan Rogers,
- Abstract要約: 我々は、未知のドメイン上でヒストグラムをリリースするための、既存の微分プライベートアルゴリズムのいくつかを再検討する。
未知の領域でヒストグラムをリリースする主な実用的利点は、アルゴリズムが欠落したラベルを埋める必要がないことである。
いくつかの既存アルゴリズムのプライバシー分析のための統一的なフレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.5773159234875098
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There are many existing differentially private algorithms for releasing histograms, i.e. counts with corresponding labels, in various settings. Our focus in this survey is to revisit some of the existing differentially private algorithms for releasing histograms over unknown domains, i.e. the labels of the counts that are to be released are not known beforehand. The main practical advantage of releasing histograms over an unknown domain is that the algorithm does not need to fill in missing labels because they are not present in the original histogram but in a hypothetical neighboring dataset could appear in the histogram. However, the challenge in designing differentially private algorithms for releasing histograms over an unknown domain is that some outcomes can clearly show which input was used, clearly violating privacy. The goal then is to show that the differentiating outcomes occur with very low probability. We present a unified framework for the privacy analyses of several existing algorithms. Furthermore, our analysis uses approximate concentrated differential privacy from Bun and Steinke'16, which can improve the privacy loss parameters rather than using differential privacy directly, especially when composing many of these algorithms together in an overall system.
- Abstract(参考訳): ヒストグラムをリリースするための多くの既存の微分プライベートアルゴリズム、すなわち対応するラベルのカウントを様々な設定でリリースしている。
この調査の焦点は、未知のドメイン上でヒストグラムを公開するための既存の微分プライベートアルゴリズムのいくつかを再検討することである。
未知の領域でヒストグラムを解放する主な実用上の利点は、アルゴリズムが元のヒストグラムには存在しないが、仮説的近傍データセットにはヒストグラムに現れるため、欠落したラベルを埋める必要がないことである。
しかし、未知のドメイン上でヒストグラムをリリースするための微分プライベートアルゴリズムを設計する上での課題は、どの入力が使われたかを明確に示す結果が、明らかにプライバシーを侵害していることである。
目的は、差別化の結果が非常に低い確率で起こることを示すことである。
いくつかの既存アルゴリズムのプライバシー分析のための統一的なフレームワークを提案する。
さらに、我々の分析では、Bun と Steinke'16 の近似微分プライバシーを用いており、特に多くのアルゴリズムを総合システムに組み込む場合、差分プライバシーを直接使用するのではなく、プライバシー損失パラメータを改善することができる。
関連論文リスト
- Locally Private Histograms in All Privacy Regimes [14.453502159917525]
中~下級のプライバシ体制において,局所的な私的ヒストグラムと,それに関連する分布学習課題について検討する。
我々は,従来のアルゴリズムと精度を一致させるが,メッセージや通信の複雑さが著しく向上した,局所的な微分プライバシーモデルにおけるヒストグラムのプロトコルを得る。
局所的な私的ヒストグラム問題において, 基板間の境界を改良した新しい解析結果から, 理論的知見が得られた。
論文 参考訳(メタデータ) (2024-08-09T06:22:45Z) - The Power of Graph Sparsification in the Continual Release Model [48.65946341463292]
本研究では,非プライベートなストリーミングアルゴリズムと静的グラフアルゴリズムによるスペーシング手法を新たに活用する。
エッジ微分プライベートアルゴリズムは、グラフ内のエッジの数に関して、サブ線形空間を使用する。
完全動的設定において、エッジプライバシーに対する加算誤差の低い境界を結論付ける。
論文 参考訳(メタデータ) (2024-07-24T20:15:07Z) - On Differential Privacy and Adaptive Data Analysis with Bounded Space [76.10334958368618]
差分プライバシーと適応データ分析の2つの関連分野の空間複雑性について検討する。
差分プライバシーで効率的に解くために指数関数的に多くの空間を必要とする問題Pが存在することを示す。
アダプティブデータ分析の研究の行は、アダプティブクエリのシーケンスに応答するのに必要なサンプルの数を理解することに焦点を当てている。
論文 参考訳(メタデータ) (2023-02-11T14:45:31Z) - Anonymized Histograms in Intermediate Privacy Models [54.32252900997422]
我々は,シャッフルDPおよびパンプライベートモデルにおいて,$tildeO_varepsilon(sqrtn)$とほぼ一致する誤差を保証するアルゴリズムを提案する。
我々のアルゴリズムは非常に単純で、離散的なラプラスノイズヒストグラムを後処理するだけである。
論文 参考訳(メタデータ) (2022-10-27T05:11:00Z) - Stochastic Differentially Private and Fair Learning [7.971065005161566]
我々は、収束することが保証されるフェアラーニングのための最初の微分プライベートアルゴリズムを提供する。
われわれのフレームワークは、人口格差や均等化オッズなど、さまざまな公平さを許容できるほど柔軟である。
本アルゴリズムは,複数の(非バイナリ)機密属性を持つ非バイナリ分類タスクに適用可能である。
論文 参考訳(メタデータ) (2022-10-17T06:54:57Z) - Private Domain Adaptation from a Public Source [48.83724068578305]
我々は、公開ラベル付きデータを持つソースドメインから、未ラベル付きプライベートデータを持つターゲットドメインへの適応のための差分プライベート離散性に基づくアルゴリズムを設計する。
我々の解は、Frank-WolfeとMirror-Descentアルゴリズムのプライベートな変種に基づいている。
論文 参考訳(メタデータ) (2022-08-12T06:52:55Z) - Differentially Private Graph Learning via Sensitivity-Bounded
Personalized PageRank [74.53857412207034]
本稿では,近似的なPPRを出力し,入力エッジに有界な感度を持つアルゴリズムを提案する。
我々の感度バウンドPPRは、差分プライベート(DP)PPRランキング、DPノード分類、DPノード埋め込みなど、グラフ学習のいくつかのツールのプライベートアルゴリズムを直接意味している。
論文 参考訳(メタデータ) (2022-07-14T14:08:59Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Privacy of Noisy Stochastic Gradient Descent: More Iterations without
More Privacy Loss [34.66940399825547]
業界は単純なアルゴリズムを広く採用している:騒音を伴うグラディエントDescent(グラディエントLangevin Dynamics)
このアルゴリズムのプライバシ損失に関する疑問は、バウンドドメイン上の滑らかな凸損失の一見単純な設定であっても、まだオープンである。
我々は、差分プライバシーを一定の要因まで特徴づけ、小さなバーンイン期間の後、SGDの実行がこれ以上のプライバシーを漏らさないことを示す。
論文 参考訳(メタデータ) (2022-05-27T02:09:55Z) - Differentially Private Densest Subgraph Detection [8.290536618677235]
多くのドメインでは、ネットワークはプライベートであり、最も密度の高いサブグラフを返すと、ネットワークに関する情報が明らかになる。
本稿では,グラフのエッジがプライベートなエッジプライバシモデルにおいて,最も密度の高いサブグラフ問題について検討する。
我々は,アルゴリズムが付加近似を保証することを示す。
論文 参考訳(メタデータ) (2021-05-27T16:36:03Z) - Robust and Differentially Private Mean Estimation [40.323756738056616]
異なるプライバシーは、米国国勢調査から商用デバイスで収集されたデータまで、さまざまなアプリケーションで標準要件として浮上しています。
このようなデータベースの数は、複数のソースからのデータからなり、それらすべてが信頼できるわけではない。
これにより、既存のプライベート分析は、腐敗したデータを注入する敵による攻撃に弱い。
論文 参考訳(メタデータ) (2021-02-18T05:02:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。