論文の概要: A Framework for Differential Privacy Against Timing Attacks
- arxiv url: http://arxiv.org/abs/2409.05623v2
- Date: Sun, 24 Nov 2024 17:49:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:13:39.567541
- Title: A Framework for Differential Privacy Against Timing Attacks
- Title(参考訳): タイミング攻撃に対する差別的プライバシのためのフレームワーク
- Authors: Zachary Ratliff, Salil Vadhan,
- Abstract要約: 我々は、タイミング側チャネルの存在下での差分プライバシーを確保するための一般的な枠組みを確立する。
タイミングプライバシという新たな概念を定義し、敵に異なるプライベートなプログラムをキャプチャする。
私たちは、OpenDP Programming Frameworkの自然な拡張を通じて、私たちのフレームワークをコードでどのように実現できるかを示します。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The standard definition of differential privacy (DP) ensures that a mechanism's output distribution on adjacent datasets is indistinguishable. However, real-world implementations of DP can, and often do, reveal information through their runtime distributions, making them susceptible to timing attacks. In this work, we establish a general framework for ensuring differential privacy in the presence of timing side channels. We define a new notion of timing privacy, which captures programs that remain differentially private to an adversary that observes the program's runtime in addition to the output. Our framework enables chaining together component programs that are timing-stable followed by a random delay to obtain DP programs that achieve timing privacy. Importantly, our definitions allow for measuring timing privacy and output privacy using different privacy measures. We illustrate how to instantiate our framework by giving programs for standard DP computations in the RAM and Word RAM models of computation. Furthermore, we show how our framework can be realized in code through a natural extension of the OpenDP Programming Framework.
- Abstract(参考訳): 差分プライバシー(DP)の標準的な定義は、隣り合うデータセット上のメカニズムの出力分布が区別できないことを保証します。
しかし、DPの実際の実装は、しばしば実行時ディストリビューションを通して情報を公開することができ、タイミングアタックの影響を受けやすい。
本研究では、タイミング側チャネルの存在下での差分プライバシーを確保するための一般的な枠組みを確立する。
出力に加えてプログラムのランタイムを観察する相手に対して、差分的にプライベートなままのプログラムをキャプチャする、タイミングプライバシという新たな概念を定義する。
我々のフレームワークは、タイミング安定なコンポーネントプログラムのチェーン化とランダムな遅延を伴ってタイミングプライバシを実現するDPプログラムの取得を可能にする。
重要なことは、私たちの定義では、異なるプライバシー手段を使用してタイミングのプライバシーを測定し、プライバシーを出力することができることです。
本稿では,RAM および Word RAM の計算モデルにおける標準 DP 計算プログラムを提供することにより,我々のフレームワークのインスタンス化方法を説明する。
さらに,OpenDPプログラミングフレームワークの自然な拡張を通じて,私たちのフレームワークをコードでどのように実現できるかを示す。
関連論文リスト
- Inference Privacy: Properties and Mechanisms [8.471466670802817]
推論プライバシ(IP)は、推論時にユーザのデータに対して厳格なプライバシ保証を提供しながら、モデルと対話することを可能にする。
本稿では,ユーザがカスタマイズ可能な入力摂動と出力摂動という,IPを実現するための2つのメカニズムを提案する。
論文 参考訳(メタデータ) (2024-11-27T20:47:28Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - PrivShape: Extracting Shapes in Time Series under User-Level Local Differential Privacy [14.408776376918484]
ローカルディファレンシャルプライバシ(LDP)は、データプライバシを保護する最先端のアプローチとして登場した。
ユーザレベル LDP の下で,全ての要素を保護するためのトリエベース機構である PrivShape を提案する。
実世界のデータセットに関する広範な実験により、PrivShapeはオフラインでの利用に適応した場合、PatternLDPよりも優れていることが実証された。
論文 参考訳(メタデータ) (2024-04-05T03:22:47Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。