論文の概要: Private Hyperparameter Tuning with Ex-Post Guarantee
- arxiv url: http://arxiv.org/abs/2508.15183v1
- Date: Thu, 21 Aug 2025 02:42:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.151818
- Title: Private Hyperparameter Tuning with Ex-Post Guarantee
- Title(参考訳): 元保証付きプライベートハイパーパラメータチューニング
- Authors: Badih Ghazi, Pritish Kamath, Alexander Knop, Ravi Kumar, Pasin Manurangsi, Chiyuan Zhang,
- Abstract要約: 「実用優先」のプライバシメカニズムは、望ましいユーティリティレベルを優先し、それに対応するプライバシコストを決定する。
Wu et al. [2019] と Liu と Talwar [2019] の作業を拡張して,プライベートな見積りのシーケンスをサポートします。
最適なプライバシ予算の選択を含む,これらの推定器のハイパーパラメータチューニングは,追加のプライバシコストなしで行うことができることを示す。
- 参考スコア(独自算出の注目度): 98.43027866582979
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The conventional approach in differential privacy (DP) literature formulates the privacy-utility trade-off with a "privacy-first" perspective: for a predetermined level of privacy, a certain utility is achievable. However, practitioners often operate under a "utility-first" paradigm, prioritizing a desired level of utility and then determining the corresponding privacy cost. Wu et al. [2019] initiated a formal study of this "utility-first" perspective by introducing ex-post DP. They demonstrated that by adding correlated Laplace noise and progressively reducing it on demand, a sequence of increasingly accurate estimates of a private parameter can be generated, with the privacy cost attributed only to the least noisy iterate released. This led to a Laplace mechanism variant that achieves a specified utility with minimal privacy loss. However, their work, and similar findings by Whitehouse et al. [2022], are primarily limited to simple mechanisms based on Laplace or Gaussian noise. In this paper, we significantly generalize these results. In particular, we extend the work of Wu et al. [2019] and Liu and Talwar [2019] to support any sequence of private estimators, incurring at most a doubling of the original privacy budget. Furthermore, we demonstrate that hyperparameter tuning for these estimators, including the selection of an optimal privacy budget, can be performed without additional privacy cost. Finally, we extend our results to ex-post Renyi DP, further broadening the applicability of utility-first privacy mechanisms.
- Abstract(参考訳): 差分プライバシー(DP)文学における従来のアプローチは、プライバシとユーティリティのトレードオフを「プライバシ優先」の観点から定式化している。
しかし、実践者はしばしば「ユーティリティファースト」パラダイムの下で活動し、望ましいユーティリティのレベルを優先順位付けし、それに対応するプライバシーコストを決定する。
Wu et al [2019]は、ポストDPの導入により、この「実用第一」の観点からの正式な研究を開始した。
彼らは、相関したLaplaceノイズを追加し、必要に応じて徐々に減少させることで、プライベートパラメータの精度が向上し、プライバシコストは、最もノイズの少ない繰り返しリリースのみによるものであることを実証した。
これによりLaplaceメカニズムが変更され、プライバシ損失を最小限に抑えた特定のユーティリティが実現された。
しかし、Whitehouseらによる同様の研究は、主にLaplaceやGaussianのノイズに基づく単純なメカニズムに限られている。
本稿では,これらの結果を顕著に一般化する。
特に、Wu et al [2019] と Liu と Talwar [2019] の作業を拡張して、プライベートな推定器のシーケンスをサポートします。
さらに、最適プライバシー予算の選択を含むこれらの推定器のハイパーパラメータチューニングを、追加のプライバシーコストなしで行うことができることを示した。
最後に、その結果を元Renyi DPに拡張し、ユーティリティ優先のプライバシメカニズムの適用性をさらに広げる。
関連論文リスト
- Meeting Utility Constraints in Differential Privacy: A Privacy-Boosting Approach [7.970280110429423]
本稿では,ほとんどのノイズ付加型DP機構と互換性のあるプライバシブースティングフレームワークを提案する。
私たちのフレームワークは、ユーティリティ要件を満たすために、サポートの望ましいサブセットに出力が落ちる可能性を高める。
提案手法は,実用性制約下での標準DP機構よりも低いプライバシー損失を実現する。
論文 参考訳(メタデータ) (2024-12-13T23:34:30Z) - Private Language Models via Truncated Laplacian Mechanism [18.77713904999236]
本稿では,高次元トラカート型ラプラシアン機構と呼ばれる新しいプライベート埋め込み手法を提案する。
提案手法は,従来のプライベート単語埋め込み法に比べて分散度が低いことを示す。
注目すべきは、高いプライバシー体制であっても、私たちのアプローチは、プライベートでないシナリオに比べて、実用性がわずかに低下することです。
論文 参考訳(メタデータ) (2024-10-10T15:25:02Z) - Shifted Interpolation for Differential Privacy [6.1836947007564085]
雑音勾配降下とその変種は、微分プライベート機械学習の主要なアルゴリズムである。
本稿では、$f$差分プライバシの統一化フレームワークにおいて、"corollary によるプライバシ増幅" 現象を確立する。
これは、強力な凸最適化の基礎的な設定において、最初の正確なプライバシー分析につながる。
論文 参考訳(メタデータ) (2024-03-01T04:50:04Z) - Adaptive Privacy Composition for Accuracy-first Mechanisms [55.53725113597539]
ノイズ低減機構はますます正確な答えを生み出す。
アナリストは、公表された最も騒々しい、あるいは最も正確な回答のプライバシー費用のみを支払う。
ポスト前のプライベートメカニズムがどのように構成されるかは、まだ研究されていない。
我々は、分析者が微分プライベートとポストプライベートのメカニズムを適応的に切り替えることのできるプライバシーフィルタを開発した。
論文 参考訳(メタデータ) (2023-06-24T00:33:34Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Brownian Noise Reduction: Maximizing Privacy Subject to Accuracy
Constraints [53.01656650117495]
研究者と実践者の間には、プライバシとユーティリティのトレードオフの扱い方の違いがある。
ブラウン機構は、まず擬ブラウン運動の最終点に対応する高分散のガウス雑音を加えることで機能する。
我々は、古典的AboveThresholdアルゴリズムの一般化であるReduceedAboveThresholdでブラウン機構を補完する。
論文 参考訳(メタデータ) (2022-06-15T01:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。