論文の概要: Measure-Observe-Remeasure: An Interactive Paradigm for Differentially-Private Exploratory Analysis
- arxiv url: http://arxiv.org/abs/2406.01964v1
- Date: Tue, 4 Jun 2024 04:48:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-05 18:00:19.015571
- Title: Measure-Observe-Remeasure: An Interactive Paradigm for Differentially-Private Exploratory Analysis
- Title(参考訳): 測度-観測値-測度-測度-測度・測度・測度・測度・測度・測度・測度・測度・測度・測度・測度・測度・測度・測度・測度・測度・測度・測度・測度・測度・測度・測度
- Authors: Priyanka Nanayakkara, Hyeok Kim, Yifan Wu, Ali Sarvghad, Narges Mahyar, Gerome Miklau, Jessica Hullman,
- Abstract要約: 差分プライバシー(DP)は、機密データのプライバシー保護分析を可能にする可能性がある。
しかし、探索分析を行うアナリストは、事前に全てのクエリを知っておらず、DPの専門知識はめったにない。
本稿では,データベースを限定的な$epsilon$で測定する対話型分析パラダイムであるMeteor-Observe-Remeasureを提案する。
- 参考スコア(独自算出の注目度): 28.234772629769306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differential privacy (DP) has the potential to enable privacy-preserving analysis on sensitive data, but requires analysts to judiciously spend a limited ``privacy loss budget'' $\epsilon$ across queries. Analysts conducting exploratory analyses do not, however, know all queries in advance and seldom have DP expertise. Thus, they are limited in their ability to specify $\epsilon$ allotments across queries prior to an analysis. To support analysts in spending $\epsilon$ efficiently, we propose a new interactive analysis paradigm, Measure-Observe-Remeasure, where analysts ``measure'' the database with a limited amount of $\epsilon$, observe estimates and their errors, and remeasure with more $\epsilon$ as needed. We instantiate the paradigm in an interactive visualization interface which allows analysts to spend increasing amounts of $\epsilon$ under a total budget. To observe how analysts interact with the Measure-Observe-Remeasure paradigm via the interface, we conduct a user study that compares the utility of $\epsilon$ allocations and findings from sensitive data participants make to the allocations and findings expected of a rational agent who faces the same decision task. We find that participants are able to use the workflow relatively successfully, including using budget allocation strategies that maximize over half of the available utility stemming from $\epsilon$ allocation. Their loss in performance relative to a rational agent appears to be driven more by their inability to access information and report it than to allocate $\epsilon$.
- Abstract(参考訳): 差別化プライバシ(DP)は、機密データに対するプライバシー保護分析を可能にする可能性があるが、アナリストは限定的な ‘‘プライバシ損失予算’' の$\epsilon$ のクエリを行なわなければならない。
しかし、探索分析を行うアナリストは、事前に全てのクエリを知っておらず、DPの専門知識はめったにない。
したがって、分析の前にクエリ間で$\epsilon$アロケートを指定する能力は制限されている。
アナリストが$\epsilon$を効率的に使うのをサポートするために、我々は新しい対話型分析パラダイムであるMessage-Observe-Remeasureを提案し、そこでは、アナリストが$\epsilon$を限られた量でデータベースを'measure'し、見積もりとエラーを観察し、必要に応じて$\epsilon$で再測定する。
インタラクティブなビジュアライゼーションインターフェースでパラダイムをインスタンス化し、アナリストが総予算で$\epsilon$を使えるようにします。
インターフェースを介して分析者が測定・観測・測定パラダイムとどのように相互作用するかを観察するため、我々は、$\epsilon$アロケーションの有用性と、機密データ参加者の発見と、同じ決定課題に直面している有理エージェントの期待するアロケーションと結果を比較するユーザスタディを実施している。
参加者は、$\epsilon$のアロケーションから得られるユーティリティの半分以上を最大化する予算配分戦略など、ワークフローを比較的うまく利用できることが分かりました。
合理的なエージェントに対するパフォーマンスの損失は、$\epsilon$を割り当てるよりも、情報にアクセスできなくなり、それを報告できないことが原因のようだ。
関連論文リスト
- Nearly Tight Black-Box Auditing of Differentially Private Machine Learning [10.305660258428993]
本稿では,ブラックボックスモデルにおけるDP-SGDアルゴリズムについて,ほぼ厳密な検証を行った。
本手法は,DP-SGDからのプライバシー漏洩を,メンバーシップ推論攻撃を用いて実証的に推定する。
論文 参考訳(メタデータ) (2024-05-23T02:24:52Z) - Online non-parametric likelihood-ratio estimation by Pearson-divergence
functional minimization [55.98760097296213]
iid 観測のペア $(x_t sim p, x'_t sim q)$ が時間の経過とともに観測されるような,オンラインな非パラメトリック LRE (OLRE) のための新しいフレームワークを提案する。
本稿では,OLRE法の性能に関する理論的保証と,合成実験における実証的検証について述べる。
論文 参考訳(メタデータ) (2023-11-03T13:20:11Z) - Gaussian Membership Inference Privacy [22.745970468274173]
我々は、$f$-Membership Inference Privacy(f$-MIP)という新しい実用的なプライバシー概念を提案する。
我々は、比例比に基づく勾配降下(SGD)に対する会員推測攻撃を理論的に分析することにより、$mu$-Gaussian Membership Inference Privacy(mu$-GMIP)と呼ばれる、$f$-MIPの家族を導出する。
論文 参考訳(メタデータ) (2023-06-12T17:57:05Z) - Personalized Pricing with Invalid Instrumental Variables:
Identification, Estimation, and Policy Learning [5.372349090093469]
本研究は,インストゥルメンタル変数アプローチを用いて,内在性の下でのオフラインパーソナライズド価格について検討する。
Invalid iNsTrumental変数を用いたパーソナライズされたプライシングのための新しいポリシー学習手法を提案する。
論文 参考訳(メタデータ) (2023-02-24T14:50:47Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Quantization for decentralized learning under subspace constraints [61.59416703323886]
エージェントがサブスペース制約を最小化するために個々のコスト関数を持つ分散最適化問題を考察する。
本稿では,エージェントが確率化量子化器を用いて推定値を圧縮する適応分散型戦略を提案し,検討する。
この分析は、量子化ノイズのいくつかの一般的な条件下では、平均二乗誤差と平均ビットレートの両方で戦略が安定であることを示している。
論文 参考訳(メタデータ) (2022-09-16T09:38:38Z) - Connect the Dots: Tighter Discrete Approximations of Privacy Loss
Distributions [49.726408540784334]
PLDベースの会計の鍵となる問題は、特定の個別サポートに対してPLDと(潜在的に連続的な)PLDをどのように近似するかである。
悲観的推定はすべての悲観的推定の中で最良であることを示す。
論文 参考訳(メタデータ) (2022-07-10T04:25:02Z) - Towards Practical Differential Privacy in Data Analysis: Understanding
the Effect of Epsilon on Utility in Private ERM [20.447583964537717]
我々は、最もよく使われているデータ分析手法の一つであるプライベート実証リスク最小化(ERM)に焦点を当てる。
我々は,エプシロンが学習モデルの実用性に与える影響を理論的に探求することによって,問題の解決に向けた第一歩を踏み出す。
本稿では,エプシロンの任意の値の下で有効性を推定するための実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-06-06T08:20:17Z) - Optimal Membership Inference Bounds for Adaptive Composition of Sampled
Gaussian Mechanisms [93.44378960676897]
トレーニングされたモデルとデータサンプルが与えられた場合、メンバシップ推論(MI)アタックは、サンプルがモデルのトレーニングセットにあるかどうかを予測する。
MI攻撃に対する一般的な対策は、モデルトレーニング中に差分プライバシー(DP)を利用して個々の事例の存在を隠蔽することである。
本稿では,MI攻撃を装着した相手のテキスト・アドバンテージのバウンダリを導出し,広く利用されているガウス機構の厳密性を示す。
論文 参考訳(メタデータ) (2022-04-12T22:36:56Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。