論文の概要: Libertas: Privacy-Preserving Computation for Decentralised Personal Data Stores
- arxiv url: http://arxiv.org/abs/2309.16365v1
- Date: Thu, 28 Sep 2023 12:07:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 14:15:19.834982
- Title: Libertas: Privacy-Preserving Computation for Decentralised Personal Data Stores
- Title(参考訳): Libertas: 分散パーソナルデータストアのためのプライバシ保護計算
- Authors: Rui Zhao, Naman Goel, Nitin Agrawal, Jun Zhao, Jake Stein, Ruben Verborgh, Reuben Binns, Tim Berners-Lee, Nigel Shadbolt,
- Abstract要約: セキュアなマルチパーティ計算をSolidと統合するためのモジュール設計を提案する。
私たちのアーキテクチャであるLibertasでは、基盤となるSolidの設計にプロトコルレベルの変更は必要ありません。
既存の差分プライバシー技術と組み合わせて、出力プライバシーを確保する方法を示す。
- 参考スコア(独自算出の注目度): 19.54818218429241
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data-driven decision-making and AI applications present exciting new opportunities delivering widespread benefits. The rapid adoption of such applications triggers legitimate concerns about loss of privacy and misuse of personal data. This leads to a growing and pervasive tension between harvesting ubiquitous data on the Web and the need to protect individuals. Decentralised personal data stores (PDS) such as Solid are frameworks designed to give individuals ultimate control over their personal data. But current PDS approaches have limited support for ensuring privacy when computations combine data spread across users. Secure Multi-Party Computation (MPC) is a well-known subfield of cryptography, enabling multiple autonomous parties to collaboratively compute a function while ensuring the secrecy of inputs (input privacy). These two technologies complement each other, but existing practices fall short in addressing the requirements and challenges of introducing MPC in a PDS environment. For the first time, we propose a modular design for integrating MPC with Solid while respecting the requirements of decentralisation in this context. Our architecture, Libertas, requires no protocol level changes in the underlying design of Solid, and can be adapted to other PDS. We further show how this can be combined with existing differential privacy techniques to also ensure output privacy. We use empirical benchmarks to inform and evaluate our implementation and design choices. We show the technical feasibility and scalability pattern of the proposed system in two novel scenarios -- 1) empowering gig workers with aggregate computations on their earnings data; and 2) generating high-quality differentially-private synthetic data without requiring a trusted centre. With this, we demonstrate the linear scalability of Libertas, and gained insights about compute optimisations under such an architecture.
- Abstract(参考訳): データ駆動意思決定とAIアプリケーションは、幅広い利益をもたらすエキサイティングな新しい機会を提供する。
このようなアプリケーションが急速に採用されると、プライバシーの喪失や個人情報の誤用に関する正当な懸念が引き起こされる。
これにより、Web上のユビキタスデータの収集と、個人を保護する必要性の間に、ますます広まりつつある緊張関係がもたらされる。
Solidのような分散パーソナルデータストア(PDS)は、個人が個人データを究極のコントロールできるように設計されたフレームワークである。
しかし、現在のPDSアプローチでは、計算がユーザ全体に分散したデータを組み合わせた場合、プライバシを確保するためのサポートが制限されている。
Secure Multi-Party Computation (MPC)は、暗号化のよく知られたサブフィールドであり、複数の自律的パーティが、入力の秘密性(入力プライバシ)を確保しながら、関数を協調的に計算することを可能にする。
これら2つの技術は相互に補完するが、既存のプラクティスは、PSD環境にMPCを導入する際の要件と課題に対処するには不十分である。
この文脈における分散化の要件を尊重しつつ,MPCとSolidを統合するモジュール設計を提案する。
私たちのアーキテクチャであるLibertasでは、基盤となるSolidの設計にプロトコルレベルの変更は必要ありません。
さらに、既存の差分プライバシー技術と組み合わせて、出力プライバシーを確保する方法も示しています。
実証的なベンチマークを使用して、実装と設計の選択を通知し、評価します。
提案方式の技術的実現可能性と拡張性パターンを2つの新しいシナリオで示す。
1 ギグワーカーの収益データに集計計算を付与すること。
2) 信頼性センタを必要とせず, 高品質な差分合成データを生成する。
これにより、リベタスの線形スケーラビリティを実証し、そのようなアーキテクチャの下での計算最適化に関する洞察を得た。
関連論文リスト
- Confidential Federated Computations [16.415880530250092]
Federated Learning and Analytics (FLA)は、デバイス上の機密データを処理するためのテクノロジプラットフォームによって広く採用されている。
FLAシステムは必ずしも差分プライバシー(DP)のような匿名化機構を必要としない
本稿では,サーバサイドの計算の秘密性を確保するために,TEEとオープンソースを活用した新しいシステムアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-04-16T17:47:27Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - CaPS: Collaborative and Private Synthetic Data Generation from Distributed Sources [5.898893619901382]
分散データホルダから合成データの協調的かつプライベートな生成のためのフレームワークを提案する。
我々は信頼されたアグリゲータをセキュアなマルチパーティ計算プロトコルに置き換え、差分プライバシー(DP)を介してプライバシを出力する。
MWEM+PGMおよびAIMの最先端選択測度生成アルゴリズムに対するアプローチの適用性とスケーラビリティを実証する。
論文 参考訳(メタデータ) (2024-02-13T17:26:32Z) - Decentralised, Scalable and Privacy-Preserving Synthetic Data Generation [8.982917734231165]
我々は、リアルデータのコントリビュータが、微分プライベートな合成データ生成に自律的に参加できる新しいシステムを構築します。
私たちのソリューションは、Solid(Social Linked Data)、MPC(Secure Multi-Party Computation)、Trusted Execution Environments(TEEs)という3つのビルディングブロックに基づいています。
これらの3つの技術が、責任と信頼性のある合成データ生成における様々な課題に効果的に対処できることを示します。
論文 参考訳(メタデータ) (2023-10-30T22:27:32Z) - Privacy-Preserving Federated Learning over Vertically and Horizontally
Partitioned Data for Financial Anomaly Detection [11.167661320589488]
実世界の金融異常検出シナリオでは、データは垂直と水平の両方に分割される。
我々のソリューションは、完全同型暗号化(HE)、セキュアマルチパーティ計算(SMPC)、微分プライバシー(DP)を組み合わせる。
私たちのソリューションは、米国プライバシ・エンハンシング・テクノロジーズ(PET)賞チャレンジの第1フェーズで2位を獲得しました。
論文 参考訳(メタデータ) (2023-10-30T06:51:33Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - MPCLeague: Robust MPC Platform for Privacy-Preserving Machine Learning [5.203329540700177]
この論文は、2、3、4パーティで効率的なMPCフレームワークを設計することに焦点を当て、少なくとも1つの汚職とリング構造をサポートする。
それぞれのフレームワークに対して2つのバリエーションを提案し、一方は実行時間を最小化し、もう一方は金銭的コストに焦点を当てる。
論文 参考訳(メタデータ) (2021-12-26T09:25:32Z) - Distributed Reinforcement Learning for Privacy-Preserving Dynamic Edge
Caching [91.50631418179331]
MECネットワークにおけるデバイスのキャッシュヒット率を最大化するために,プライバシ保護型分散ディープポリシー勾配(P2D3PG)を提案する。
分散最適化をモデルフリーなマルコフ決定プロセス問題に変換し、人気予測のためのプライバシー保護フェデレーション学習手法を導入する。
論文 参考訳(メタデータ) (2021-10-20T02:48:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。