論文の概要: PAnDA: Rethinking Metric Differential Privacy Optimization at Scale with Anchor-Based Approximation
- arxiv url: http://arxiv.org/abs/2509.08720v1
- Date: Wed, 10 Sep 2025 16:14:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.491395
- Title: PAnDA: Rethinking Metric Differential Privacy Optimization at Scale with Anchor-Based Approximation
- Title(参考訳): PAnDA: Anchorベースの近似で大規模にメトリクス差分プライバシー最適化を再考する
- Authors: Ruiyao Liu, Chenxi Qiu,
- Abstract要約: 我々は,距離微分プライバシー(mDP)のためのスケーラブルなフレームワークとして,アンカーベース分散近似(PAnDA)による摂動を提案する。
実世界の位置情報データセットの実験により、PAnDAは最大5,000レコードの秘密ドメインにスケールすることを示した。
- 参考スコア(独自算出の注目度): 7.889420673572309
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Metric Differential Privacy (mDP) extends the local differential privacy (LDP) framework to metric spaces, enabling more nuanced privacy protection for data such as geo-locations. However, existing mDP optimization methods, particularly those based on linear programming (LP), face scalability challenges due to the quadratic growth in decision variables. In this paper, we propose Perturbation via Anchor-based Distributed Approximation (PAnDA), a scalable two-phase framework for optimizing metric differential privacy (mDP). To reduce computational overhead, PAnDA allows each user to select a small set of anchor records, enabling the server to solve a compact linear program over a reduced domain. We introduce three anchor selection strategies, exponential decay (PAnDA-e), power-law decay (PAnDA-p), and logistic decay (PAnDA-l), and establish theoretical guarantees under a relaxed privacy notion called probabilistic mDP (PmDP). Experiments on real-world geo-location datasets demonstrate that PAnDA scales to secret domains with up to 5,000 records, two times larger than prior LP-based methods, while providing theoretical guarantees for both privacy and utility.
- Abstract(参考訳): 距離差分プライバシー(mDP)は、ローカル差分プライバシー(LDP)フレームワークをメートル法空間に拡張し、位置情報などのデータに対するより微妙なプライバシー保護を可能にする。
しかし、既存のmDP最適化手法、特に線形プログラミング(LP)に基づく手法は、決定変数の二次的な増加によるスケーラビリティの課題に直面している。
本稿では,距離微分プライバシー(mDP)を最適化するスケーラブルな2相フレームワークであるAnchor-based Distributed Approximation (PAnDA)による摂動を提案する。
計算オーバーヘッドを低減するため、PAnDAは各ユーザが小さなアンカーレコードを選択でき、サーバが縮小されたドメイン上のコンパクトな線形プログラムを解決できる。
本稿では, 3つのアンカー選択戦略, 指数的減衰(PAnDA-e), パワーロー崩壊(PAnDA-p), ロジスティック崩壊(PAnDA-l)を導入し, 確率的mDP(PmDP)と呼ばれる緩和されたプライバシー概念の下で理論的保証を確立する。
実世界の位置情報データセットの実験では、プライバシとユーティリティの両方に関する理論的保証を提供しながら、PAnDAは最大5,000レコードの秘密ドメインにスケールする。
関連論文リスト
- Interpolation-Based Optimization for Enforcing lp-Norm Metric Differential Privacy in Continuous and Fine-Grained Domains [9.320305401683438]
メートル微分プライバシ(mDP)は、ペア距離に基づいてプライバシー保証を適用することで、ローカル微分プライバシ(LDP)を一般化する。
既存の最適化に基づく手法は、粗いドメインにおけるユーティリティ損失を効果的に削減する。
このような領域で lp-norm mDP を最適化するための計算ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-15T00:12:54Z) - Linear-Time User-Level DP-SCO via Robust Statistics [55.350093142673316]
ユーザレベルの差分プライベート凸最適化(DP-SCO)は、マシンラーニングアプリケーションにおけるユーザのプライバシ保護の重要性から、大きな注目を集めている。
微分プライベート勾配勾配(DP-SGD)に基づくような現在の手法は、しばしば高雑音蓄積と準最適利用に苦しむ。
これらの課題を克服するために、ロバストな統計、特に中央値とトリミング平均を利用する新しい線形時間アルゴリズムを導入する。
論文 参考訳(メタデータ) (2025-02-13T02:05:45Z) - Differentially Private Policy Gradient [48.748194765816955]
本研究では,プライバシノイズと信頼領域サイズとの間の適切なトレードオフを見出すことができ,性能的にプライベートなポリシー勾配アルゴリズムが得られることを示す。
この結果と課題の複雑さは,オンラインRLにおける既存のDPアルゴリズムよりも大幅に改善されている。
論文 参考訳(メタデータ) (2025-01-31T12:11:13Z) - Enhancing Scalability of Metric Differential Privacy via Secret Dataset Partitioning and Benders Decomposition [1.283608820493284]
メトリック微分プライバシー(mDP)は、新しいデータパラダイムとして機能するために、差分プライバシー(DP)の概念を拡張します。
道路網やグリッドマップ上の単語埋め込みや位置情報として符号化されたテキストデータなど、一般的なメートル法空間で表される秘密データを保護するように設計されている。
論文 参考訳(メタデータ) (2024-05-07T14:19:09Z) - Improved Communication-Privacy Trade-offs in $L_2$ Mean Estimation under Streaming Differential Privacy [47.997934291881414]
既存の平均推定スキームは、通常、$L_infty$幾何に最適化され、ランダムな回転や、$L$幾何に適応するカシンの表現に依存する。
本稿では,スパシフィケーションに固有のランダム性をDPに組み込んだ,スパシフィケーションガウシアン機構の新たなプライバシ会計手法を提案する。
従来の手法とは異なり、我々の会計アルゴリズムは直接$L$幾何で動作し、ガウスの機構に迅速に収束するMSEが得られる。
論文 参考訳(メタデータ) (2024-05-02T03:48:47Z) - Differentially Private Zeroth-Order Methods for Scalable Large Language Model Finetuning [0.0]
プリトレーニング済みLLMのDP微調整は、タスク固有のデータセットのプライバシ保護に広く用いられている。
DP-SGDのスケーラビリティを限界まで押し上げたにもかかわらず、DP-SGDベースの微調整法は残念ながらSGD固有の非効率性によって制限されている。
論文 参考訳(メタデータ) (2024-02-12T17:24:15Z) - Adaptive Differentially Quantized Subspace Perturbation (ADQSP): A Unified Framework for Privacy-Preserving Distributed Average Consensus [6.364764301218972]
本稿では適応微分量子化部分空間(ADQSP)という一般手法を提案する。
本研究では,単一の量子化パラメータを変化させることで,提案手法がSMPC型の性能とDP型性能に異なることを示す。
この結果から,従来の分散信号処理ツールを暗号保証に活用する可能性が示唆された。
論文 参考訳(メタデータ) (2023-12-13T07:52:16Z) - DPZero: Private Fine-Tuning of Language Models without Backpropagation [49.365749361283704]
DPZeroは、ほぼ次元に依存しない新しいゼロオーダーアルゴリズムである。
DPZeroのメモリ効率は、いくつかの下流タスクでプライベートに微調整されたRoBERTaとOPTで実証される。
論文 参考訳(メタデータ) (2023-10-14T18:42:56Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Differentially Private Decentralized Optimization with Relay Communication [1.2695958417031445]
プライバシリーク頻度(PLF)は,アルゴリズムの通信とプライバシリークの関係を明らかにする指標である。
DP-RECAL は, 演算子分割法と中継通信機構を利用して, PLF の低減を図っている。
論文 参考訳(メタデータ) (2022-12-21T09:05:36Z) - Local Differential Privacy for Bayesian Optimization [12.05395706770007]
局所微分プライバシー(LDP)を保証した非パラメトリックガウス過程におけるブラックボックス最適化について検討する。
具体的には、各ユーザの報酬は、プライバシーを保護するためにさらに悪化し、学習者は、後悔を最小限に抑えるために、破損した報酬にのみアクセスすることができる。
GP-UCBフレームワークとLaplace DP機構に基づく3つのほぼ最適なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-13T21:50:09Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。