論文の概要: Elephants Do Not Forget: Differential Privacy with State Continuity for Privacy Budget
- arxiv url: http://arxiv.org/abs/2401.17628v1
- Date: Wed, 31 Jan 2024 07:08:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 12:08:11.097800
- Title: Elephants Do Not Forget: Differential Privacy with State Continuity for Privacy Budget
- Title(参考訳): Elephantsは忘れない: プライバシ予算のための状態継続を伴う差別的プライバシ
- Authors: Jiankai Jin, Chitchanok Chuengsatiansup, Toby Murray, Benjamin I. P. Rubinstein, Yuval Yarom, Olga Ohrimenko,
- Abstract要約: プライバシ予算の維持に失敗したことで、敵がリプレイ、ロールバック、フォークアタックをマウントできることを示す。
我々は,グローバルDPモデルにおいて,信頼できるキュレーターと同じ保証を提供するシステムであるElephantDPを提案する。
- 参考スコア(独自算出の注目度): 28.620127946619522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current implementations of differentially-private (DP) systems either lack support to track the global privacy budget consumed on a dataset, or fail to faithfully maintain the state continuity of this budget. We show that failure to maintain a privacy budget enables an adversary to mount replay, rollback and fork attacks - obtaining answers to many more queries than what a secure system would allow. As a result the attacker can reconstruct secret data that DP aims to protect - even if DP code runs in a Trusted Execution Environment (TEE). We propose ElephantDP, a system that aims to provide the same guarantees as a trusted curator in the global DP model would, albeit set in an untrusted environment. Our system relies on a state continuity module to provide protection for the privacy budget and a TEE to faithfully execute DP code and update the budget. To provide security, our protocol makes several design choices including the content of the persistent state and the order between budget updates and query answers. We prove that ElephantDP provides liveness (i.e., the protocol can restart from a correct state and respond to queries as long as the budget is not exceeded) and DP confidentiality (i.e., an attacker learns about a dataset as much as it would from interacting with a trusted curator). Our implementation and evaluation of the protocol use Intel SGX as a TEE to run the DP code and a network of TEEs to maintain state continuity. Compared to an insecure baseline, we observe only 1.1-2$\times$ overheads and lower relative overheads for larger datasets and complex DP queries.
- Abstract(参考訳): 差分的プライベート(DP)システムの現在の実装では、データセットで消費されるグローバルプライバシ予算を追跡するためのサポートが欠如しているか、あるいは、この予算の状態を忠実に維持できないかのいずれかである。
プライバシ予算の維持に失敗したことで、対戦相手がリプレイやロールバック、フォーク攻撃をマウントできるようになります。
その結果、攻撃者はDPが保護しようとする秘密データを再構築することができる。
本研究では,グローバルDPモデルにおいて,信頼できるキュレーターと同じ保証を提供するシステムであるElephantDPを提案する。
我々のシステムは、プライバシー予算を保護するための状態継続モジュールと、DPコードを忠実に実行し、予算を更新するTEEに依存しています。
セキュリティを確保するため,提案プロトコルは,永続状態の内容や,予算更新とクエリ応答の順序など,いくつかの設計上の選択を行う。
我々は、ElephantDPがライブ性(すなわち、プロトコルが正しい状態から再起動し、予算を越えない限りクエリに応答できる)とDPの機密性(すなわち、攻撃者は信頼できるキュレーターと対話するのと同じくらいデータセットについて学習する)を提供することを証明した。
このプロトコルの実装と評価では、TEEとしてIntel SGXを使用してDPコードとTEEのネットワークを実行し、状態継続性を維持する。
安全でないベースラインと比較して、大きなデータセットと複雑なDPクエリに対して、オーバーヘッドは1.1-2$\times$で、相対オーバーヘッドは低い。
関連論文リスト
- Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - FastLloyd: Federated, Accurate, Secure, and Tunable $k$-Means Clustering with Differential Privacy [26.927356987142407]
本稿では,プライバシー保護のための$k$-meansクラスタリングの問題について検討する。
セキュアな計算を使った既存のアプローチは、かなりのオーバーヘッドに悩まされ、出力のプライバシを提供しない。
計算DPモデルを用いて、4桁の高速化を実現する軽量でセキュアな集約ベースのアプローチを設計する。
論文 参考訳(メタデータ) (2024-05-03T19:04:37Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Privacy-Preserving Federated Learning over Vertically and Horizontally
Partitioned Data for Financial Anomaly Detection [11.167661320589488]
実世界の金融異常検出シナリオでは、データは垂直と水平の両方に分割される。
我々のソリューションは、完全同型暗号化(HE)、セキュアマルチパーティ計算(SMPC)、微分プライバシー(DP)を組み合わせる。
私たちのソリューションは、米国プライバシ・エンハンシング・テクノロジーズ(PET)賞チャレンジの第1フェーズで2位を獲得しました。
論文 参考訳(メタデータ) (2023-10-30T06:51:33Z) - Chained-DP: Can We Recycle Privacy Budget? [18.19895364709435]
本稿では,ユーザが順次データアグリゲーションを実行し,プライバシ予算を再利用することのできる,新しいChained-DPフレームワークを提案する。
逐次ゲームの数学的性質を示し、そのナッシュ平衡を解き、証明可能な経済特性を持つインセンティブメカニズムを設計する。
提案手法の有効性を数値シミュレーションにより検証し,従来のLPP機構と比較して,プライバシ予算の大幅な削減と推定誤差の低減を図った。
論文 参考訳(メタデータ) (2023-09-12T08:07:59Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Lifelong DP: Consistently Bounded Differential Privacy in Lifelong
Machine Learning [28.68587691924582]
新たなタスクを継続的に学習し,過去のタスクを記憶するプロセスは,未知のプライバシリスクと,プライバシ損失を拘束する課題をもたらすことを示す。
ライフロングDPの形式的定義を導入し、任意のタスクのトレーニングセットにデータを含めることが保護される。
我々はL2DP-MLと呼ばれるスケーラブルで異種なアルゴリズムを提案し、L2Mモデルの新バージョンを効率的に訓練し、継続する。
論文 参考訳(メタデータ) (2022-07-26T11:55:21Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。