論文の概要: Locally Optimal Private Sampling: Beyond the Global Minimax
- arxiv url: http://arxiv.org/abs/2510.09485v1
- Date: Fri, 10 Oct 2025 15:50:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:49.324273
- Title: Locally Optimal Private Sampling: Beyond the Global Minimax
- Title(参考訳): ローカルに最適なプライベートサンプリング:グローバルなミニマックスを超えて
- Authors: Hrad Ghoukasian, Bonwoo Lee, Shahab Asoodeh,
- Abstract要約: ローカルディファレンシャルプライバシ(LDP)下における分布からのサンプリング問題について検討する。
プライベートディストリビューションがmathcalP$で$Pを与えられると、そのディストリビューションから1つのサンプルを生成して、$f$-divergenceで$P$に近いようにする。
- 参考スコア(独自算出の注目度): 4.864766590239657
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of sampling from a distribution under local differential privacy (LDP). Given a private distribution $P \in \mathcal{P}$, the goal is to generate a single sample from a distribution that remains close to $P$ in $f$-divergence while satisfying the constraints of LDP. This task captures the fundamental challenge of producing realistic-looking data under strong privacy guarantees. While prior work by Park et al. (NeurIPS'24) focuses on global minimax-optimality across a class of distributions, we take a local perspective. Specifically, we examine the minimax risk in a neighborhood around a fixed distribution $P_0$, and characterize its exact value, which depends on both $P_0$ and the privacy level. Our main result shows that the local minimax risk is determined by the global minimax risk when the distribution class $\mathcal{P}$ is restricted to a neighborhood around $P_0$. To establish this, we (1) extend previous work from pure LDP to the more general functional LDP framework, and (2) prove that the globally optimal functional LDP sampler yields the optimal local sampler when constrained to distributions near $P_0$. Building on this, we also derive a simple closed-form expression for the locally minimax-optimal samplers which does not depend on the choice of $f$-divergence. We further argue that this local framework naturally models private sampling with public data, where the public data distribution is represented by $P_0$. In this setting, we empirically compare our locally optimal sampler to existing global methods, and demonstrate that it consistently outperforms global minimax samplers.
- Abstract(参考訳): 本研究では,ローカルディファレンシャルプライバシ(LDP)下での分布からのサンプリング問題について検討する。
プライベート分布 $P \in \mathcal{P}$ が与えられた場合、目的は LDP の制約を満たすことなく、$P$ in $f$-divergence に近い分布から単一のサンプルを生成することである。
このタスクは、強力なプライバシー保証の下で現実的なデータを生成するという根本的な課題を捉えている。
Park et al (NeurIPS'24) による以前の研究は、分布のクラス全体にわたる大域的なミニマックス最適性に焦点を当てていたが、局所的な視点を採る。
具体的には、固定分布$P_0$の周辺地域のミニマックスリスクを調べ、その正確な値を特徴付ける。
我々の主な結果は、分布クラス$\mathcal{P}$が$P_0$の近傍に制限されたとき、局所的なミニマックスリスクは、グローバルなミニマックスリスクによって決定されることを示している。
これを確立するため,(1) 純粋 LDP からより一般的な LDP フレームワークへ以前の作業を拡張し,(2) 大域的最適機能 LDP サンプリング器が$P_0$ に近い分布に制約された場合に,最適な局所サンプリング器が得られることを証明した。
これに基づいて、$f$-divergence の選択に依存しない局所的なミニマックス最適サンプリングのための単純な閉形式式も導出する。
さらに、このローカルなフレームワークは、公開データによるプライベートサンプリングを自然にモデル化し、パブリックなデータ分布を$P_0$で表現する。
この設定では, 局所最適サンプリングと既存のグローバルメソッドを実証的に比較し, 常にグローバルなミニマックスサンプリングよりも優れていることを示す。
関連論文リスト
- Instance-Optimality for Private KL Distribution Estimation [41.35506763248454]
未知の離散分布 $p$ over $d$ symbols, given $n$ i.i.d. sample from the distribution。
本稿では,差分プライバシー制約を伴わずに,一定要素までのインスタンス最適化を実現するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-05-29T16:27:57Z) - Locally Private Sampling with Public Data [2.6334346517416876]
ローカルディファレンシャルプライバシ(LDP)は、ユーザのデータを保護するために、プライバシ保護機械学習にますます採用されている。
本稿では,各ユーザのプライベートデータセットとパブリックデータセットの両方を活用する,ローカルなプライベートサンプリングフレームワークを提案する。
この目的を,ユーティリティ尺度として$f$-divergenceを用いて最小限の最適化問題とする。
論文 参考訳(メタデータ) (2024-11-13T17:17:16Z) - Stochastic Approximation Approaches to Group Distributionally Robust Optimization and Beyond [89.72693227960274]
本稿では,グループ分散ロバスト最適化 (GDRO) を,$m$以上の異なる分布をうまく処理するモデルを学習する目的で検討する。
各ラウンドのサンプル数を$m$から1に抑えるため、GDROを2人でプレイするゲームとして、一方のプレイヤーが実行し、他方のプレイヤーが非公開のマルチアームバンディットのオンラインアルゴリズムを実行する。
第2のシナリオでは、最大リスクではなく、平均的最上位k$リスクを最適化し、分散の影響を軽減することを提案する。
論文 参考訳(メタデータ) (2023-02-18T09:24:15Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Discrete Distribution Estimation under User-level Local Differential
Privacy [37.65849910114053]
ユーザレベルの局所差分プライバシー(LDP)に基づく離散分布推定について検討する。
ユーザレベルの$varepsilon$-LDPでは、各ユーザは$mge1$サンプルを持ち、すべての$m$サンプルのプライバシを同時に保存する必要がある。
論文 参考訳(メタデータ) (2022-11-07T18:29:32Z) - Instance-Optimal Differentially Private Estimation [2.320417845168326]
我々は,$epsilon$-differential privacyの対象となる局所最小収束推定値について検討した。
そこで本研究では,Canonneらの最近の最適プライベートテスタによる簡易仮説テストのための最適アルゴリズムが,局所最小推定アルゴリズムの設計を直接的に通知することを示した。
論文 参考訳(メタデータ) (2022-10-28T01:08:01Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Breaking the Sample Size Barrier in Model-Based Reinforcement Learning
with a Generative Model [50.38446482252857]
本稿では、生成モデル(シミュレータ)へのアクセスを想定して、強化学習のサンプル効率について検討する。
最初に$gamma$-discounted infinite-horizon Markov decision process (MDPs) with state space $mathcalS$ and action space $mathcalA$を考える。
対象の精度を考慮すれば,モデルに基づく計画アルゴリズムが最小限のサンプルの複雑さを実現するのに十分であることを示す。
論文 参考訳(メタデータ) (2020-05-26T17:53:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。