論文の概要: SLDP: Semi-Local Differential Privacy for Density-Adaptive Analytics
- arxiv url: http://arxiv.org/abs/2602.18910v1
- Date: Sat, 21 Feb 2026 17:26:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.390098
- Title: SLDP: Semi-Local Differential Privacy for Density-Adaptive Analytics
- Title(参考訳): SLDP: 密度適応分析のための半局所微分プライバシー
- Authors: Alexey Kroshnin, Alexandra Suvorikova,
- Abstract要約: 本稿では,局所密度に基づいて各ユーザに対してプライバシ領域を割り当てる新しいフレームワーク,Semi-Local Differential Privacy (SLDP)を提案する。
本稿では,公開チャネル上の真面目なサーバによって編成された対話型$(varepsilon, )$-SLDPプロトコルを提案し,これらの領域をプライベートに推定する。
- 参考スコア(独自算出の注目度): 45.88028371034407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Density-adaptive domain discretization is essential for high-utility privacy-preserving analytics but remains challenging under Local Differential Privacy (LDP) due to the privacy-budget costs associated with iterative refinement. We propose a novel framework, Semi-Local Differential Privacy (SLDP), that assigns a privacy region to each user based on local density and defines adjacency by the potential movement of a point within its privacy region. We present an interactive $(\varepsilon, δ)$-SLDP protocol, orchestrated by an honest-but-curious server over a public channel, to estimate these regions privately. Crucially, our framework decouples the privacy cost from the number of refinement iterations, allowing for high-resolution grids without additional privacy budget cost. We experimentally demonstrate the framework's effectiveness on estimation tasks across synthetic and real-world datasets.
- Abstract(参考訳): 密度適応型ドメインの離散化は、高ユーティリティなプライバシ保存分析には不可欠だが、反復的洗練に伴うプライバシー予算コストのため、ローカル微分プライバシー(LDP)の下では依然として困難である。
本稿では,局所密度に基づいて各ユーザに対してプライバシー領域を割り当て,そのプライバシ領域内での潜在的移動により隣接性を定義する,新たなフレームワークであるSemi-Local Differential Privacy (SLDP)を提案する。
本稿では,公開チャネル上の真面目なサーバによって編成された対話型$(\varepsilon,δ)$-SLDPプロトコルを提案し,これらの領域をプライベートに推定する。
重要な点として、当社のフレームワークは、プライバシコストを改善イテレーションの数から切り離し、プライバシ予算を必要とせずに高解像度のグリッドを可能にする。
合成および実世界のデータセット間の推定作業におけるフレームワークの有効性を実験的に実証した。
関連論文リスト
- A General Framework for Per-record Differential Privacy [10.959311645622632]
記録ごとの差分プライバシー(PrDP)は、各レコードの機能としてプライバシー予算を定義することでこの問題に対処する。
既存のソリューションは特定のプライバシ機能を扱うか、緩和されたPrDP定義を採用する。
本稿では,任意の標準DP機構がPrDPをサポート可能な,汎用的で実用的なフレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-24T11:44:10Z) - Differentially Private 2D Human Pose Estimation [6.982542225631412]
微分プライベートな2次元ポーズ推定(2D-HPE)のための最初の包括的枠組みを提案する。
プライバシ性能を効果的にバランスするために,低次元部分空間へのノイズ勾配を投影するProjected DP-SGDを採用した。
次に、FDP(Feature Differential Privacy)を導入し、公共の視覚的手がかりを維持しながら、機密機能のみを選択的に民営化する。
論文 参考訳(メタデータ) (2025-04-14T12:50:37Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - A Framework for Managing Multifaceted Privacy Leakage While Optimizing Utility in Continuous LBS Interactions [0.0]
我々は,LBSにおけるプライバシー漏洩の理解と管理の促進を目的とした,新しいコントリビューションをいくつか提示する。
私たちのコントリビューションは、位置情報ベースのインタラクションのさまざまな側面にわたるプライバシー上の懸念を分析するための、より包括的なフレームワークを提供します。
論文 参考訳(メタデータ) (2024-04-20T15:20:01Z) - Bridging Privacy and Robustness for Trustworthy Machine Learning [6.318638597489423]
機械学習システムは、データ摂動や敵の操作に対して本質的に堅牢性を必要とする。
本稿では,局所微分プライバシー(LDP)と最大ベイズプライバシー(MBP)の複雑な理論的関係を体系的に検討する。
我々はこれらのプライバシー概念をアルゴリズム的堅牢性、特に確率的略正(PAC)学習フレームワークにブリッジする。
論文 参考訳(メタデータ) (2024-03-25T10:06:45Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Optimal and Differentially Private Data Acquisition: Central and Local
Mechanisms [9.599356978682108]
プライバシに敏感なユーザからデータを収集するプラットフォームの問題を考え,その基盤となる関心パラメータを推定する。
ユーザに対して、プライバシ保証を提供するための2つの一般的な差分プライバシ設定について検討する。
このメカニズム設計問題は,ユーザのプライバシ感を真に報告するための推定器と支払器の最適選択として機能する。
論文 参考訳(メタデータ) (2022-01-10T00:27:43Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。