論文の概要: Piquant$\varepsilon$: Private Quantile Estimation in the Two-Server Model
- arxiv url: http://arxiv.org/abs/2509.14035v1
- Date: Wed, 17 Sep 2025 14:34:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.882382
- Title: Piquant$\varepsilon$: Private Quantile Estimation in the Two-Server Model
- Title(参考訳): Piquant$\varepsilon$: 2サーバモデルにおけるプライベート量子推定
- Authors: Hannah Keller, Jacob Imola, Fabrizio Boninsegna, Rasmus Pagh, Amrita Roy Chowdhury,
- Abstract要約: 我々は、信頼できるサーバに頼ることなく、分散環境で複数の量子化をプライバシ保存するシステムであるPiquant$varepsilonを提示する。
Piquant$varepsilon$は2サーバモデルに基づいて構築されており、慎重に選択された中間統計情報を公開し、エンドツーエンドのDPを保存しながら、MPCの複雑さを低減するという新しい戦略を採用している。
- 参考スコア(独自算出の注目度): 13.87825190149209
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantiles are key in distributed analytics, but computing them over sensitive data risks privacy. Local differential privacy (LDP) offers strong protection but lower accuracy than central DP, which assumes a trusted aggregator. Secure multi-party computation (MPC) can bridge this gap, but generic MPC solutions face scalability challenges due to large domains, complex secure operations, and multi-round interactions. We present Piquant$\varepsilon$, a system for privacy-preserving estimation of multiple quantiles in a distributed setting without relying on a trusted server. Piquant$\varepsilon$ operates under the malicious threat model and achieves accuracy of the central DP model. Built on the two-server model, Piquant$\varepsilon$ uses a novel strategy of releasing carefully chosen intermediate statistics, reducing MPC complexity while preserving end-to-end DP. Empirically, Piquant$\varepsilon$ estimates 5 quantiles on 1 million records in under a minute with domain size $10^9$, achieving up to $10^4$-fold higher accuracy than LDP, and up to $\sim 10\times$ faster runtime compared to baselines.
- Abstract(参考訳): 量子は分散分析において鍵となるものだが、機密データを計算することでプライバシーが脅かされる。
ローカルディファレンシャルプライバシ(LDP)は、信頼できるアグリゲータを仮定する中央DPよりも強力な保護を提供するが、精度は低い。
セキュアなマルチパーティ計算(MPC)はこのギャップを埋めることができますが、汎用的なMPCソリューションは、大きなドメイン、複雑なセキュアな操作、マルチラウンドインタラクションによるスケーラビリティの問題に直面します。
我々は、信頼できるサーバに頼ることなく、分散環境で複数の量子化をプライバシ保存するシステムPiquant$\varepsilonを提示する。
Piquant$\varepsilon$は悪意のある脅威モデルの下で動作し、中央DPモデルの精度を達成する。
Piquant$\varepsilon$は2サーバモデルに基づいて構築されており、慎重に選択された中間統計情報を公開し、エンドツーエンドのDPを維持しながら、MPCの複雑さを低減するという新しい戦略を採用している。
Piquant$\varepsilon$は、ドメインサイズが10^9$で、LDPよりも10^4$-fold高い精度で、ベースラインよりも高速なランタイムで最大$\sim 10\times$1分以内で、100万レコード上の5つの量子化を推定する。
関連論文リスト
- Perfectly-Private Analog Secure Aggregation in Federated Learning [51.61616734974475]
連合学習では、複数のパーティがモデルをローカルにトレーニングし、パラメータを中央サーバと共有する。
本稿では,有限場ではなくトーラスを用いた新しいセキュアパラメータアグリゲーション法を提案する。
論文 参考訳(メタデータ) (2025-09-10T15:22:40Z) - Lightweight Protocols for Distributed Private Quantile Estimation [12.586899971090277]
我々は、各ユーザが1つのデータポイントを1つのドメインに[B]$で保持するときに、1つの量子を推定する2つの強調適応アルゴリズムを考察する。
適応的な設定では、$varepsilon$-LDPアルゴリズムを用い、$O(fraclog Bvarepsilon2alpha2)$ユーザしか必要としないエラー$alpha$内の量子化を推定できる。
論文 参考訳(メタデータ) (2025-02-05T08:39:02Z) - Correlated Privacy Mechanisms for Differentially Private Distributed Mean Estimation [8.660393575612169]
ローカルディファレンシャルプライバシ(LDP)とセキュアアグリゲーション(SA)を備えた分散DPは、信頼できないサーバでDP-DME設定で使用されるDPの最も一般的な概念である。
LDPは、ドロップアウト、ユーザの衝突、敵の攻撃に対して強力なレジリエンスを提供するが、実用性に乏しい。
本研究では,DP-DME を極端ケースとして LDP と SA-based のメカニズムをキャプチャする,汎用的な DP-DME フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-03T17:22:33Z) - Private Mean Estimation with Person-Level Differential Privacy [6.621676316292624]
複数のサンプルを持つ場合の個人レベルの個人別平均推定について検討した。
我々は、計算効率のよいアルゴリズムを、純粋DPで、計算効率の悪いアルゴリズムを、ほぼ一致する下界は、近似DPの最も寛容な場合を抑える。
論文 参考訳(メタデータ) (2024-05-30T18:20:35Z) - Private Fine-tuning of Large Language Models with Zeroth-order Optimization [51.19403058739522]
差分的プライベート勾配降下(DP-SGD)により、モデルはプライバシ保護の方法でトレーニングできる。
DP-ZO(DP-ZO)は,ゼロオーダー最適化手法を民営化することで,大規模言語モデルのためのプライベートな微調整フレームワークである。
論文 参考訳(メタデータ) (2024-01-09T03:53:59Z) - TAN Without a Burn: Scaling Laws of DP-SGD [70.7364032297978]
近年、ディープニューラルネットワーク(DNN)を訓練するための微分プライベートな手法が進歩している。
プライバシ分析とノイズのあるトレーニングの実験的振る舞いを分離し、最小限の計算要件でトレードオフを探索する。
我々は,提案手法をCIFAR-10とImageNetに適用し,特にImageNetの最先端性を,上位1点の精度で向上させる。
論文 参考訳(メタデータ) (2022-10-07T08:44:35Z) - Distributed Differential Privacy in Multi-Armed Bandits [9.51828574518325]
差分プライバシ(DP)の分散信頼モデルの下では、標準の$K$武器の盗賊問題を考える。
我々は、分散信頼モデルの下では純粋なDP保証を得ると同時に、中央信頼モデルよりも後悔を犠牲にすることを目指している。
論文 参考訳(メタデータ) (2022-06-12T15:37:36Z) - Large Scale Transfer Learning for Differentially Private Image
Classification [51.10365553035979]
Differential Privacy(DP)は、個別のサンプルレベルのプライバシで機械学習モデルをトレーニングするための正式なフレームワークを提供する。
DP-SGDを用いたプライベートトレーニングは、個々のサンプル勾配にノイズを注入することで漏れを防ぐ。
この結果は非常に魅力的であるが,DP-SGDを用いた大規模モデルのトレーニングの計算コストは,非プライベートトレーニングよりもかなり高い。
論文 参考訳(メタデータ) (2022-05-06T01:22:20Z) - Frequency Estimation Under Multiparty Differential Privacy: One-shot and
Streaming [10.952006057356714]
プライバシと通信の制約下での周波数推定の基本的問題について検討し,そのデータを$k$のパーティ間で分散する。
私たちは、ローカルディファレンシャルプライバシ(LDP)と(分散)ディファレンシャルプライバシよりも一般的なマルチパーティディファレンシャルプライバシ(MDP)のモデルを採用しています。
我々のプロトコルは、より厳密な2つの制約によって許容可能な最適性(対数因子まで)を達成する。
論文 参考訳(メタデータ) (2021-04-05T08:15:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。