論文の概要: Taypsi: Static Enforcement of Privacy Policies for Policy-Agnostic Oblivious Computation
- arxiv url: http://arxiv.org/abs/2311.09393v4
- Date: Wed, 6 Mar 2024 18:49:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-17 17:10:47.112284
- Title: Taypsi: Static Enforcement of Privacy Policies for Policy-Agnostic Oblivious Computation
- Title(参考訳): Taypsi: プライバシポリシの静的実施
- Authors: Qianchuan Ye, Benjamin Delaware,
- Abstract要約: セキュアなマルチパーティ計算(MPC)技術により、複数のパーティが、データを他のパーティと共有することなく、プライベートデータ上のジョイント関数を計算できる。
ほとんどのMPC言語では、ユーザーは単一のアプリケーションでプログラムとプライバシの懸念を混在させ、プログラムの基盤となるプライバシポリシーの変更や監査を困難にしている。
この研究は、プログラムを静的にユーザが提供するプライバシポリシを強制する意味論的に等価なバージョンに変換することによって、このオーバーヘッドを取り除くことを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Secure multiparty computation (MPC) techniques enable multiple parties to compute joint functions over their private data without sharing that data with other parties, typically by employing powerful cryptographic protocols to protect individual's data. One challenge when writing such functions is that most MPC languages force users to intermix programmatic and privacy concerns in a single application, making it difficult to change or audit a program's underlying privacy policy. Prior policy-agnostic MPC languages relied on dynamic enforcement to decouple privacy requirements from program logic. Unfortunately, the resulting overhead makes it difficult to scale MPC applications that manipulate structured data. This work proposes to eliminate this overhead by instead transforming programs into semantically equivalent versions that statically enforce user-provided privacy policies. We have implemented this approach in a new MPC language, called Taypsi; our experimental evaluation demonstrates that the resulting system features considerable performance improvements on a variety of MPC applications involving structured data and complex privacy policies.
- Abstract(参考訳): セキュアなマルチパーティ計算(MPC)技術により、複数のパーティが、データを他のパーティと共有することなく、複数のパーティがプライベートデータ上のジョイント関数を計算できる。
このような関数を書く場合の課題の1つは、ほとんどのMPC言語が単一のアプリケーションでプログラムとプライバシの懸念を混在させ、プログラムの基盤となるプライバシポリシーを変更したり、監査したりするのが難しくなることである。
それまでのポリシーに依存しないMPC言語は、プログラムロジックからプライバシー要件を分離するために動的執行に依存していた。
残念ながら、結果として生じるオーバーヘッドにより、構造化データを操作するMPCアプリケーションのスケールが困難になる。
この研究は、プログラムを静的にユーザが提供するプライバシポリシを強制する意味論的に等価なバージョンに変換することによって、このオーバーヘッドを取り除くことを提案する。
我々はこの手法をTaypsiと呼ばれる新しいMPC言語で実装し、その結果、構造化データや複雑なプライバシーポリシーを含む様々なMPCアプリケーションにおいて、システムの性能が大幅に向上したことを示す実験的な評価を行った。
関連論文リスト
- IDPFilter: Mitigating Interdependent Privacy Issues in Third-Party Apps [0.30693357740321775]
サードパーティアプリがIDP(Interdependent Privacy)への懸念を強めている
本報告では,サードパーティアプリのIDP問題に関して,これまで未検討であった問題を包括的に調査する。
IDPFilterは,アプリケーションプロバイダが情報収集を最小化するためのプラットフォームに依存しないAPIである。
論文 参考訳(メタデータ) (2024-05-02T16:02:13Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - DP-OPT: Make Large Language Model Your Privacy-Preserving Prompt Engineer [57.04801796205638]
大きな言語モデル(LLM)は、様々なタスクのための支配的なツールとして現れています。
しかし、データプライバシに関する懸念は、調整されたプロンプトが機密情報に依存しているため、障害となる。
本稿では,DP-OPT(Dis Differentially-Private Offsite Prompt Tuning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T02:01:10Z) - P-Bench: A Multi-level Privacy Evaluation Benchmark for Language Models [41.86590537265852]
言語モデル(LM)のプライバシー漏洩を経験的かつ直感的に定量化するベンチマークであるP-Benchを提案する。
DPパラメータで保護されたデータのプライバシを保護し、測定する代わりに、P-Benchは実際の使用中に無視された推論データのプライバシに光を当てる。
P-Benchは、実証的な評価結果として、予め定義されたプライバシー目標を持つLMに対する既存のプライバシ攻撃を実行する。
論文 参考訳(メタデータ) (2023-11-07T14:55:52Z) - Libertas: Privacy-Preserving Computation for Decentralised Personal Data Stores [19.54818218429241]
セキュアなマルチパーティ計算をSolidと統合するためのモジュール設計を提案する。
私たちのアーキテクチャであるLibertasでは、基盤となるSolidの設計にプロトコルレベルの変更は必要ありません。
既存の差分プライバシー技術と組み合わせて、出力プライバシーを確保する方法を示す。
論文 参考訳(メタデータ) (2023-09-28T12:07:40Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - PLUE: Language Understanding Evaluation Benchmark for Privacy Policies
in English [77.79102359580702]
プライバシポリシ言語理解評価ベンチマークは,プライバシポリシ言語理解を評価するマルチタスクベンチマークである。
また、プライバシポリシの大規模なコーパスを収集し、プライバシポリシドメイン固有の言語モデル事前トレーニングを可能にします。
ドメイン固有の連続的な事前トレーニングは、すべてのタスクでパフォーマンスを改善することを実証します。
論文 参考訳(メタデータ) (2022-12-20T05:58:32Z) - MPCLeague: Robust MPC Platform for Privacy-Preserving Machine Learning [5.203329540700177]
この論文は、2、3、4パーティで効率的なMPCフレームワークを設計することに焦点を当て、少なくとも1つの汚職とリング構造をサポートする。
それぞれのフレームワークに対して2つのバリエーションを提案し、一方は実行時間を最小化し、もう一方は金銭的コストに焦点を当てる。
論文 参考訳(メタデータ) (2021-12-26T09:25:32Z) - Imitation Learning from MPC for Quadrupedal Multi-Gait Control [63.617157490920505]
本稿では,歩行ロボットの複数の歩行を模倣する単一ポリシーを学習する学習アルゴリズムを提案する。
モデル予測制御によって導かれる模擬学習のアプローチであるMPC-Netを使用し、拡張します。
ハードウェアに対する我々のアプローチを検証し、学習したポリシーが教師に取って代わって複数の歩留まりを制御できることを示します。
論文 参考訳(メタデータ) (2021-03-26T08:48:53Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Strengthening Deterministic Policies for POMDPs [5.092711491848192]
我々は、時間論理制約の形で洗練された仕様をサポートする新しいMILP符号化を提供する。
我々は、メモリベースの決定を包含するために、POMDPの事前処理を採用する。
提案手法の利点は, 計算的トラクタビリティを損なうことなく, 簡単な決定論的政策を強化する柔軟性と, 任意に多くの仕様の証明可能な満足度を強制する能力である。
論文 参考訳(メタデータ) (2020-07-16T14:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。