論文の概要: Differentially Private Selection using Smooth Sensitivity
- arxiv url: http://arxiv.org/abs/2504.08086v1
- Date: Thu, 10 Apr 2025 19:31:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 14:19:08.271823
- Title: Differentially Private Selection using Smooth Sensitivity
- Title(参考訳): Smooth Sensitivity を用いた個人差分選択
- Authors: Iago Chaves, Victor Farias, Amanda Perez, Diego Parente, Javam Machado,
- Abstract要約: 異なるプライベート選択機構は、有限集合 R からトップスコア要素 r を識別することを目的としたクエリに対して強力なプライバシー保証を提供する。
Smooth Noisy Max (SNM) 機構を提案する。この機構はスムーズな感度を利用して,大域的な感度に基づく手法と比較して,予測誤差を確実に高める。
実験により、SNMは3つの応用における最先端の差分選択法よりも精度が高いことが示された。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Differentially private selection mechanisms offer strong privacy guarantees for queries aiming to identify the top-scoring element r from a finite set R, based on a dataset-dependent utility function. While selection queries are fundamental in data science, few mechanisms effectively ensure their privacy. Furthermore, most approaches rely on global sensitivity to achieve differential privacy (DP), which can introduce excessive noise and impair downstream inferences. To address this limitation, we propose the Smooth Noisy Max (SNM) mechanism, which leverages smooth sensitivity to yield provably tighter (upper bounds on) expected errors compared to global sensitivity-based methods. Empirical results demonstrate that SNM is more accurate than state-of-the-art differentially private selection methods in three applications: percentile selection, greedy decision trees, and random forests.
- Abstract(参考訳): 異なるプライベート選択メカニズムは、データセット依存ユーティリティ関数に基づいて、有限集合 R からトップスコア要素 r を識別することを目的としたクエリに対して、強力なプライバシ保証を提供する。
選択クエリはデータサイエンスにおいて基本的なものであるが、そのプライバシを効果的に保証するメカニズムはほとんどない。
さらに、ほとんどのアプローチは、過度なノイズや下流の推論を損なう可能性のあるディファレンシャルプライバシ(DP)を実現するために、グローバルな感度に依存している。
この制限に対処するために,スムーズな感度を利用するSmooth Noisy Max(SNM)機構を提案する。
実験により、SNMは、パーセンタイル選択、グリージー決定木、ランダム森林の3つの応用において、最先端の個人選択法よりも精度が高いことが示された。
関連論文リスト
- Private Selection with Heterogeneous Sensitivities [2.0936724675062406]
微分プライベート(DP)選択は、有限候補プールからハイスコア候補を選択することを含む。
この問題は、モデル選択、仮説テスト、および多くのDPアルゴリズムを含む様々な文脈で自然に発生する。
これを解決するために、GEM(Generalized Exponential Mechanism)のようなアルゴリズムは、候補感度の可変性を利用する。
論文 参考訳(メタデータ) (2025-01-09T15:25:07Z) - Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Evaluating the Impact of Local Differential Privacy on Utility Loss via
Influence Functions [11.504012974208466]
我々は、特定のプライバシパラメータ値がモデルのテスト損失にどのように影響するかについて、インフルエンス関数が洞察を与える能力を示す。
提案手法により,データキュレーターは,プライバシ・ユーティリティのトレードオフに最も適したプライバシパラメータを選択できる。
論文 参考訳(メタデータ) (2023-09-15T18:08:24Z) - Causal Inference with Differentially Private (Clustered) Outcomes [16.166525280886578]
ランダム化実験から因果効果を推定することは、参加者が反応を明らかにすることに同意すれば実現可能である。
我々は,任意のクラスタ構造を利用する新たな差分プライバシメカニズムであるCluster-DPを提案する。
クラスタの品質を直感的に測定することで,プライバシ保証を維持しながら分散損失を改善することができることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Optimum Noise Mechanism for Differentially Private Queries in Discrete Finite Sets [3.5379819043314176]
本稿では,離散的かつ有限な問合せセットに適した最適ノイズマス確率関数を設計するための新しいフレームワークを提案する。
我々のフレームワークは、任意の$(epsilon, delta)$制約の下でノイズ分布を最適化し、応答の精度と有用性を向上させる。
数値実験により,提案手法の最先端手法と比較して,最適機構の優れた性能が示された。
論文 参考訳(メタデータ) (2021-11-23T05:24:34Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Bounding, Concentrating, and Truncating: Unifying Privacy Loss
Composition for Data Analytics [2.614355818010333]
アナリストが純粋なDP、境界範囲(指数的なメカニズムなど)、集中的なDPメカニズムを任意の順序で選択できる場合、強いプライバシー損失バウンダリを提供する。
また、アナリストが純粋なDPと境界範囲のメカニズムをバッチで選択できる場合に適用される最適なプライバシー損失境界を提供する。
論文 参考訳(メタデータ) (2020-04-15T17:33:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。