論文の概要: Consistent Estimation of Numerical Distributions under Local Differential Privacy by Wavelet Expansion
- arxiv url: http://arxiv.org/abs/2509.19661v1
- Date: Wed, 24 Sep 2025 00:37:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.644352
- Title: Consistent Estimation of Numerical Distributions under Local Differential Privacy by Wavelet Expansion
- Title(参考訳): ウェーブレット展開による局所微分プライバシー下の数値分布の連続推定
- Authors: Puning Zhao, Zhikun Zhang, Bo Sun, Li Shen, Liang Zhang, Shaowei Wang, Zhe Liu,
- Abstract要約: 本稿では,ウェーブレット展開を用いたサンプル分布の表現手法を提案する。
本手法は, マクロレベルでの高精度な推定を行うために, 低次係数の推定を優先する。
実験により, ウェーブレット展開法は, ワッサーシュタインとKS距離の既存の解より有意に優れていた。
- 参考スコア(独自算出の注目度): 33.04753728429468
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distribution estimation under local differential privacy (LDP) is a fundamental and challenging task. Significant progresses have been made on categorical data. However, due to different evaluation metrics, these methods do not work well when transferred to numerical data. In particular, we need to prevent the probability mass from being misplaced far away. In this paper, we propose a new approach that express the sample distribution using wavelet expansions. The coefficients of wavelet series are estimated under LDP. Our method prioritizes the estimation of low-order coefficients, in order to ensure accurate estimation at macroscopic level. Therefore, the probability mass is prevented from being misplaced too far away from its ground truth. We establish theoretical guarantees for our methods. Experiments show that our wavelet expansion method significantly outperforms existing solutions under Wasserstein and KS distances.
- Abstract(参考訳): ローカルディファレンシャルプライバシ(LDP)による分布推定は,基本的かつ困難な課題である。
分類学的なデータについて重要な進歩がなされている。
しかし、評価基準が異なるため、数値データに転送してもうまく動作しない。
特に、確率質量が遠くにずれることを防ぐ必要がある。
本稿では,ウェーブレット展開を用いたサンプル分布表現手法を提案する。
ウェーブレット級数の係数は LDP で推定される。
本手法は, マクロレベルでの高精度な推定を行うために, 低次係数の推定を優先する。
したがって、確率質量がその基礎的真理から遠ざかることを防ぐことができる。
我々は我々の方法の理論的保証を確立する。
実験により, ウェーブレット展開法は, ワッサーシュタインとKS距離の既存の解より有意に優れていた。
関連論文リスト
- Inflationary Flows: Calibrated Bayesian Inference with Diffusion-Based Models [0.0]
本稿では,拡散モデルを用いてベイズ推定を行う方法を示す。
本稿では,新しいノイズスケジュールを用いて,標準的なDBMトレーニングを通じてそのようなマップを学習する方法を示す。
その結果は、低次元の潜在空間上で一意に定義される非常に表現性の高い生成モデルのクラスである。
論文 参考訳(メタデータ) (2024-07-11T19:58:19Z) - Combining Statistical Depth and Fermat Distance for Uncertainty Quantification [3.3975558777609915]
我々は、Fermat Distanceと組み合わせたLens Depth'(LD)という統計的概念を用いて、ニューラルネットワークの予測における領域外不確実性を測定する。
提案手法は,おもちゃのデータセットに対して優れた定性的な結果を与えるとともに,標準的なディープラーニングデータセットに対して,競合的あるいはより良い不確実性評価を行うことができる。
論文 参考訳(メタデータ) (2024-04-12T13:54:21Z) - Transformer-based Parameter Estimation in Statistics [0.0]
パラメータ推定のための変換器に基づく手法を提案する。
数値法で必要とされる確率密度関数を知る必要さえない。
提案手法は,平均二乗誤差で測定した手法と類似あるいは良好な精度を達成できることが示されている。
論文 参考訳(メタデータ) (2024-02-28T04:30:41Z) - Uncertainty Quantification via Stable Distribution Propagation [60.065272548502]
本稿では,ニューラルネットワークによる安定確率分布の伝播手法を提案する。
提案手法は局所線形化に基づいており,ReLU非線型性に対する全変動距離の近似値として最適であることを示す。
論文 参考訳(メタデータ) (2024-02-13T09:40:19Z) - One step closer to unbiased aleatoric uncertainty estimation [71.55174353766289]
そこで本研究では,観測データのアクティブデノイズ化による新しい推定手法を提案する。
幅広い実験を行うことで,提案手法が標準手法よりも実際のデータ不確実性にはるかに近い近似を与えることを示す。
論文 参考訳(メタデータ) (2023-12-16T14:59:11Z) - Continuous Wasserstein-2 Barycenter Estimation without Minimax
Optimization [94.18714844247766]
ワッサーシュタイン・バリセンターは、最適輸送に基づく確率測度の重み付き平均の幾何学的概念を提供する。
本稿では,Wasserstein-2 バリセンタのサンプルアクセスを演算するスケーラブルなアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-02T21:01:13Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z) - Batch Stationary Distribution Estimation [98.18201132095066]
サンプル遷移の組を与えられたエルゴードマルコフ鎖の定常分布を近似する問題を考える。
与えられたデータに対する補正比関数の復元に基づく一貫した推定器を提案する。
論文 参考訳(メタデータ) (2020-03-02T09:10:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。