論文の概要: Taypsi: Static Enforcement of Privacy Policies for Policy-Agnostic Oblivious Computation
- arxiv url: http://arxiv.org/abs/2311.09393v4
- Date: Wed, 6 Mar 2024 18:49:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-17 17:10:47.112284
- Title: Taypsi: Static Enforcement of Privacy Policies for Policy-Agnostic Oblivious Computation
- Title(参考訳): Taypsi: プライバシポリシの静的実施
- Authors: Qianchuan Ye, Benjamin Delaware,
- Abstract要約: セキュアなマルチパーティ計算(MPC)技術により、複数のパーティが、データを他のパーティと共有することなく、プライベートデータ上のジョイント関数を計算できる。
ほとんどのMPC言語では、ユーザーは単一のアプリケーションでプログラムとプライバシの懸念を混在させ、プログラムの基盤となるプライバシポリシーの変更や監査を困難にしている。
この研究は、プログラムを静的にユーザが提供するプライバシポリシを強制する意味論的に等価なバージョンに変換することによって、このオーバーヘッドを取り除くことを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Secure multiparty computation (MPC) techniques enable multiple parties to compute joint functions over their private data without sharing that data with other parties, typically by employing powerful cryptographic protocols to protect individual's data. One challenge when writing such functions is that most MPC languages force users to intermix programmatic and privacy concerns in a single application, making it difficult to change or audit a program's underlying privacy policy. Prior policy-agnostic MPC languages relied on dynamic enforcement to decouple privacy requirements from program logic. Unfortunately, the resulting overhead makes it difficult to scale MPC applications that manipulate structured data. This work proposes to eliminate this overhead by instead transforming programs into semantically equivalent versions that statically enforce user-provided privacy policies. We have implemented this approach in a new MPC language, called Taypsi; our experimental evaluation demonstrates that the resulting system features considerable performance improvements on a variety of MPC applications involving structured data and complex privacy policies.
- Abstract(参考訳): セキュアなマルチパーティ計算(MPC)技術により、複数のパーティが、データを他のパーティと共有することなく、複数のパーティがプライベートデータ上のジョイント関数を計算できる。
このような関数を書く場合の課題の1つは、ほとんどのMPC言語が単一のアプリケーションでプログラムとプライバシの懸念を混在させ、プログラムの基盤となるプライバシポリシーを変更したり、監査したりするのが難しくなることである。
それまでのポリシーに依存しないMPC言語は、プログラムロジックからプライバシー要件を分離するために動的執行に依存していた。
残念ながら、結果として生じるオーバーヘッドにより、構造化データを操作するMPCアプリケーションのスケールが困難になる。
この研究は、プログラムを静的にユーザが提供するプライバシポリシを強制する意味論的に等価なバージョンに変換することによって、このオーバーヘッドを取り除くことを提案する。
我々はこの手法をTaypsiと呼ばれる新しいMPC言語で実装し、その結果、構造化データや複雑なプライバシーポリシーを含む様々なMPCアプリケーションにおいて、システムの性能が大幅に向上したことを示す実験的な評価を行った。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Interactive GDPR-Compliant Privacy Policy Generation for Software Applications [6.189770781546807]
ソフトウェアアプリケーションを使用するには、ユーザが個人情報を提供するように要求されることがある。
プライバシーが重要な関心事になっているため、世界中で多くの保護規制が存在している。
本稿では,包括的かつ適合したプライバシポリシを生成するアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-04T01:22:16Z) - PolicyLR: A Logic Representation For Privacy Policies [34.73520882451813]
我々は、プライバシポリシーの包括的な機械可読表現を提供する新しいパラダイムであるPolicyLRを提案する。
PolicyLRは、プライバシーポリシーを原子式の評価を用いて機械可読形式に変換する。
ポリシコンプライアンス,一貫性検出,プライバシ比較ショッピングという3つのプライバシタスクにおいて,ポリシLRを実証する。
論文 参考訳(メタデータ) (2024-08-27T07:27:16Z) - Low-Latency Privacy-Preserving Deep Learning Design via Secure MPC [31.35072624488929]
セキュアなマルチパーティ計算(MPC)は、プライベート情報をリークすることなく、複数のパーティ間のプライバシ保護計算を容易にする。
本研究は、MPCプロトコルの実行中に不要な通信ラウンドを減らす、低レイテンシな秘密共有ベースのMPC設計を提案する。
論文 参考訳(メタデータ) (2024-07-24T07:01:21Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Libertas: Privacy-Preserving Computation for Decentralised Personal Data Stores [19.54818218429241]
セキュアなマルチパーティ計算をSolidと統合するためのモジュール設計を提案する。
私たちのアーキテクチャであるLibertasでは、基盤となるSolidの設計にプロトコルレベルの変更は必要ありません。
既存の差分プライバシー技術と組み合わせて、出力プライバシーを確保する方法を示す。
論文 参考訳(メタデータ) (2023-09-28T12:07:40Z) - PLUE: Language Understanding Evaluation Benchmark for Privacy Policies
in English [77.79102359580702]
プライバシポリシ言語理解評価ベンチマークは,プライバシポリシ言語理解を評価するマルチタスクベンチマークである。
また、プライバシポリシの大規模なコーパスを収集し、プライバシポリシドメイン固有の言語モデル事前トレーニングを可能にします。
ドメイン固有の連続的な事前トレーニングは、すべてのタスクでパフォーマンスを改善することを実証します。
論文 参考訳(メタデータ) (2022-12-20T05:58:32Z) - Imitation Learning from MPC for Quadrupedal Multi-Gait Control [63.617157490920505]
本稿では,歩行ロボットの複数の歩行を模倣する単一ポリシーを学習する学習アルゴリズムを提案する。
モデル予測制御によって導かれる模擬学習のアプローチであるMPC-Netを使用し、拡張します。
ハードウェアに対する我々のアプローチを検証し、学習したポリシーが教師に取って代わって複数の歩留まりを制御できることを示します。
論文 参考訳(メタデータ) (2021-03-26T08:48:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。