論文の概要: Fundamental Limit of Discrete Distribution Estimation under Utility-Optimized Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2509.24173v1
- Date: Mon, 29 Sep 2025 01:41:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.678233
- Title: Fundamental Limit of Discrete Distribution Estimation under Utility-Optimized Local Differential Privacy
- Title(参考訳): 実用性最適化ローカル微分プライバシーに基づく離散分布推定の基礎的限界
- Authors: Sun-Moon Yoon, Hyun-Young Park, Seung-Hyun Nam, Si-Hyeon Lee,
- Abstract要約: ユーティリティ最適化ローカルディファレンシャルプライバシ(ULDP)における離散分布推定の問題点について検討する。
そこで本研究では,LDP制約下で最適なブロック設計機構の非保存的変更として得られる,実用最適化ブロック設計(uBD)方式のクラスを提案する。
これらの結果は、ULDP下で達成可能な推定精度を厳密に評価し、プライバシーを自明な統計的推測のための最適メカニズムの構造に関する新たな知見を明らかにする。
- 参考スコア(独自算出の注目度): 14.980778567896593
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of discrete distribution estimation under utility-optimized local differential privacy (ULDP), which enforces local differential privacy (LDP) on sensitive data while allowing more accurate inference on non-sensitive data. In this setting, we completely characterize the fundamental privacy-utility trade-off. The converse proof builds on several key ideas, including a generalized uniform asymptotic Cram\'er-Rao lower bound, a reduction showing that it suffices to consider a newly defined class of extremal ULDP mechanisms, and a novel distribution decomposition technique tailored to ULDP constraints. For the achievability, we propose a class of utility-optimized block design (uBD) schemes, obtained as nontrivial modifications of the block design mechanism known to be optimal under standard LDP constraints, while incorporating the distribution decomposition idea used in the converse proof and a score-based linear estimator. These results provide a tight characterization of the estimation accuracy achievable under ULDP and reveal new insights into the structure of optimal mechanisms for privacy-preserving statistical inference.
- Abstract(参考訳): ユーティリティ最適化ローカルディファレンシャルプライバシ(ULDP)の下での離散分布推定の問題について検討し,非感度データに対するより正確な推論を可能にするとともに,機密データに対して局所ディファレンシャルプライバシ(LDP)を強制する。
この設定では、基本的なプライバシーとユーティリティのトレードオフを完全に特徴付けます。
逆証明は、一般化された一様漸近Clam\'er-Raoの下界、新たに定義された極端UDP機構のクラスを考えるのに十分であることを示す還元、ULDP制約に合わせた新しい分布分解技術など、いくつかの重要な概念に基づいている。
そこで本研究では,LDP制約下で最適であるブロック設計機構の非自明な修正として得られた,実用最適化ブロック設計(uBD)方式のクラスを提案する。
これらの結果は, ULDPで得られる推定精度の厳密な評価と, プライバシー保護統計的推測のための最適メカニズムの構造に関する新たな知見を提供する。
関連論文リスト
- Federated Learning of Quantile Inference under Local Differential Privacy [2.8462768598083823]
局所微分プライバシー(LDP)下での量子推論の学習について検討する。
本稿では,局所勾配勾配(SGD)に基づく推定器を提案する。
我々は、推定器の正規性と機能中心極限定理を確立する。
論文 参考訳(メタデータ) (2025-09-26T02:56:39Z) - Private Rate-Constrained Optimization with Applications to Fair Learning [39.172158806012966]
差分プライバシー(DP)下における制約問題について検討する。
我々は、レート制約問題のラグランジアン定式化を解決するグラディエント・Descent-Ascent(SGDA)アルゴリズムの変種であるRaCO-DPを開発する。
論文 参考訳(メタデータ) (2025-05-28T17:55:01Z) - Locally Private Nonparametric Contextual Multi-armed Bandits [10.579415536953132]
ローカルディファレンシャルプライバシ(LDP)の下での非パラメトリックコンテキスト多重武装バンディット(MAB)の課題に対処する。
一致したミニマックス下界で支持されるミニマックス最適性を示す一様信頼束縛型推定器を開発した。
論文 参考訳(メタデータ) (2025-03-11T07:00:57Z) - Bounded and Unbiased Composite Differential Privacy [25.427802467876248]
差分プライバシ(DP)の目的は、隣接する2つのデータベース間で区別できない出力分布を生成することにより、プライバシを保護することである。
既存のソリューションでは、後処理やトランケーション技術を使ってこの問題に対処しようとしている。
本稿では,合成確率密度関数を用いて有界および非偏りの出力を生成する新しい微分プライベート機構を提案する。
論文 参考訳(メタデータ) (2023-11-04T04:43:47Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - When Demonstrations Meet Generative World Models: A Maximum Likelihood
Framework for Offline Inverse Reinforcement Learning [62.00672284480755]
本稿では, 専門家エージェントから, 一定の有限個の実演において観測された動作を過小評価する報酬と環境力学の構造を復元することを目的とする。
タスクを実行するための正確な専門知識モデルは、臨床的意思決定や自律運転のような安全に敏感な応用に応用できる。
論文 参考訳(メタデータ) (2023-02-15T04:14:20Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z) - GenDICE: Generalized Offline Estimation of Stationary Values [108.17309783125398]
重要なアプリケーションでは,効果的な推定が依然として可能であることを示す。
我々のアプローチは、定常分布と経験分布の差を補正する比率を推定することに基づいている。
結果として得られるアルゴリズム、GenDICEは単純で効果的である。
論文 参考訳(メタデータ) (2020-02-21T00:27:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。