論文の概要: A Learning-based Declarative Privacy-Preserving Framework for Federated Data Management
- arxiv url: http://arxiv.org/abs/2401.12393v2
- Date: Fri, 27 Sep 2024 14:40:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-09 05:17:11.958661
- Title: A Learning-based Declarative Privacy-Preserving Framework for Federated Data Management
- Title(参考訳): フェデレーションデータ管理のための学習型宣言型プライバシ保護フレームワーク
- Authors: Hong Guan, Summer Gautier, Rajan Hari Ambrish, Yancheng Wang, Chaowei Xiao, Yingzhen Yang, Jia Zou,
- Abstract要約: 本稿では,DP-SGDアルゴリズムを用いて学習したディープラーニングモデルを用いた新たなプライバシ保存手法を提案する。
次に、ユーザが"保護する方法"ではなく、"保護すべきプライベート情報"を指定可能な、宣言的なプライバシ保護ワークフローを新たにデモします。
- 参考スコア(独自算出の注目度): 23.847568516724937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is challenging to select the right privacy-preserving mechanism for federated query processing over multiple private data silos. There exist numerous privacy-preserving mechanisms, such as secure multi-party computing (SMC), approximate query processing with differential privacy (DP), combined SMC and DP, DP-based data obfuscation, and federated learning. These mechanisms make different trade-offs among accuracy, privacy, execution efficiency, and storage efficiency. In this work, we first introduce a new privacy-preserving technique that uses a deep learning model trained using the Differentially-Private Stochastic Gradient Descent (DP-SGD) algorithm to replace portions of actual data to answer a query. We then demonstrate a novel declarative privacy-preserving workflow that allows users to specify "what private information to protect" rather than "how to protect". Under the hood, the system relies on a cost model to automatically choose privacy-preserving mechanisms as well as hyper-parameters. At the same time, the proposed workflow also allows human experts to review and tune the selected privacy-preserving mechanism for audit/compliance, and optimization purposes.
- Abstract(参考訳): 複数のプライベートデータサイロ上でのフェデレーションクエリ処理の適切なプライバシ保護メカニズムを選択するのは難しい。
セキュアなマルチパーティコンピューティング(SMC)、差分プライバシによる近似クエリ処理(DP)、SMCとDPの組み合わせ、DPベースのデータ難読化、フェデレーション学習など、多くのプライバシ保護機構が存在する。
これらのメカニズムは、正確性、プライバシ、実行効率、ストレージ効率に異なるトレードオフをもたらす。
そこで本研究では,DP-SGDアルゴリズムを用いて学習したディープラーニングモデルを用いて,実際のデータの一部を置換してクエリに応答する,新たなプライバシ保存手法を提案する。
次に、ユーザが"保護する方法"ではなく、"保護すべきプライベート情報"を指定可能な、宣言的なプライバシ保護ワークフローを紹介します。
内部では、ハイパーパラメータだけでなく、プライバシー保護機構を自動的に選択するためのコストモデルに依存している。
同時に、提案されたワークフローでは、監査/コンプライアンス、最適化目的のために選択されたプライバシ保護メカニズムをレビューし、調整することができる。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - Privacy Preserving Large Language Models: ChatGPT Case Study Based Vision and Framework [6.828884629694705]
本稿では,LLMのプライバシ生成モデルであるPrivChatGPTという概念モデルを提案する。
PrivChatGPTは、データキュレーション/前処理中にユーザのプライバシを保護し、プライベートコンテキストの保存と大規模データのプライベートトレーニングプロセスという2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2023-10-19T06:55:13Z) - Libertas: Privacy-Preserving Computation for Decentralised Personal Data Stores [19.54818218429241]
セキュアなマルチパーティ計算をSolidと統合するためのモジュール設計を提案する。
私たちのアーキテクチャであるLibertasでは、基盤となるSolidの設計にプロトコルレベルの変更は必要ありません。
既存の差分プライバシー技術と組み合わせて、出力プライバシーを確保する方法を示す。
論文 参考訳(メタデータ) (2023-09-28T12:07:40Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Privacy-Preserving Matrix Factorization for Recommendation Systems using
Gaussian Mechanism [2.84279467589473]
本稿では,差分プライバシーフレームワークと行列因数分解に基づくプライバシ保護レコメンデーションシステムを提案する。
差分プライバシーは、プライバシを保存する機械学習アルゴリズムを設計するための強力で堅牢な数学的フレームワークであるため、敵が機密性の高いユーザー情報を抽出するのを防ぐことができる。
論文 参考訳(メタデータ) (2023-04-11T13:50:39Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Assessing Differentially Private Variational Autoencoders under
Membership Inference [26.480694390462617]
差分プライベートな変分オートエンコーダのプライバシーと精度のトレードオフを定量化し比較する。
変分オートエンコーダのプライバシーと精度のトレードオフを良好に観察することはめったになく,LCPがCDPを上回った事例を特定する。
論文 参考訳(メタデータ) (2022-04-16T21:53:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。