論文の概要: Picachv: Formally Verified Data Use Policy Enforcement for Secure Data Analytics
- arxiv url: http://arxiv.org/abs/2501.10560v1
- Date: Fri, 17 Jan 2025 21:30:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:19:14.047386
- Title: Picachv: Formally Verified Data Use Policy Enforcement for Secure Data Analytics
- Title(参考訳): Picachv: セキュアなデータ分析のための形式的に検証されたデータ利用ポリシー
- Authors: Haobin Hiroki Chen, Hongbo Chen, Mingshen Sun, Chenghong Wang, XiaoFeng Wang,
- Abstract要約: 我々は、データ利用ポリシーを自動的に適用する新しいセキュリティモニタであるPicachvを紹介した。
プログラムセマンティクスの抽象化としてリレーショナル代数で動作し、実行中にプログラムが生成するクエリプランのポリシー適用を可能にする。
我々はPicachvを最先端のデータ分析フレームワークであるPolarsに統合し、TPC-Hベンチマークを用いてその性能を評価する。
- 参考スコア(独自算出の注目度): 10.630556229470681
- License:
- Abstract: Ensuring the proper use of sensitive data in analytics under complex privacy policies is an increasingly critical challenge. Many existing approaches lack portability, verifiability, and scalability across diverse data processing frameworks. We introduce Picachv, a novel security monitor that automatically enforces data use policies. It works on relational algebra as an abstraction for program semantics, enabling policy enforcement on query plans generated by programs during execution. This approach simplifies analysis across diverse analytical operations and supports various front-end query languages. By formalizing both data use policies and relational algebra semantics in Coq, we prove that Picachv correctly enforces policies. Picachv also leverages Trusted Execution Environments (TEEs) to enhance trust in runtime, providing provable policy compliance to stakeholders that the analytical tasks comply with their data use policies. We integrated Picachv into Polars, a state-of-the-art data analytics framework, and evaluate its performance using the TPC-H benchmark. We also apply our approach to real-world use cases. Our work demonstrates the practical application of formal methods in securing data analytics, addressing key challenges.
- Abstract(参考訳): 複雑なプライバシーポリシーの下で分析に機密データの適切な利用を保証することは、ますます重要な課題である。
既存のアプローチの多くは、さまざまなデータ処理フレームワーク間のポータビリティ、検証可能性、スケーラビリティを欠いている。
我々は、データ利用ポリシーを自動的に適用する新しいセキュリティモニタであるPicachvを紹介した。
プログラムセマンティクスの抽象化としてリレーショナル代数で動作し、実行中にプログラムが生成するクエリプランのポリシー適用を可能にする。
このアプローチは、多種多様な分析操作の解析を単純化し、様々なフロントエンドクエリ言語をサポートする。
Coqにおけるデータ利用ポリシーとリレーショナル代数のセマンティクスの両方を形式化することにより、Picachvがポリシーを正しく強制することを証明する。
また、PicachvはTrusted Execution Environments(TEEs)を活用して実行時の信頼性を高め、分析タスクがデータ利用ポリシーに準拠していることをステークホルダーに証明可能なポリシーコンプライアンスを提供する。
我々はPicachvを最先端のデータ分析フレームワークであるPolarsに統合し、TPC-Hベンチマークを用いてそのパフォーマンスを評価した。
実際のユースケースにもアプローチを適用します。
我々の研究は、データ分析の安全性を確保するための形式的手法の実践的応用を実証し、重要な課題に対処する。
関連論文リスト
- PolicyLR: A Logic Representation For Privacy Policies [34.73520882451813]
我々は、プライバシポリシーの包括的な機械可読表現を提供する新しいパラダイムであるPolicyLRを提案する。
PolicyLRは、プライバシーポリシーを原子式の評価を用いて機械可読形式に変換する。
ポリシコンプライアンス,一貫性検出,プライバシ比較ショッピングという3つのプライバシタスクにおいて,ポリシLRを実証する。
論文 参考訳(メタデータ) (2024-08-27T07:27:16Z) - Offline Reinforcement Learning from Datasets with Structured Non-Stationarity [50.35634234137108]
現在の強化学習(RL)は、成功するポリシーを学ぶのに必要な大量のデータによって制限されることが多い。
本稿では,データセットを収集しながら,各エピソードの遷移と報酬関数が徐々に変化するが,各エピソード内で一定に保たれるような新しいオフラインRL問題に対処する。
本稿では、オフラインデータセットにおけるこの非定常性を識別し、ポリシーのトレーニング時にそれを説明し、評価中に予測するContrastive Predictive Codingに基づく手法を提案する。
論文 参考訳(メタデータ) (2024-05-23T02:41:36Z) - Learning Optimal Deterministic Policies with Stochastic Policy Gradients [62.81324245896716]
政策勾配法(PG法)は連続強化学習(RL法)問題に対処する手法として成功している。
一般的には、収束(ハイパー)政治は、決定論的バージョンをデプロイするためにのみ学習される。
本稿では,サンプルの複雑性とデプロイされた決定論的ポリシのパフォーマンスのトレードオフを最適化するために,学習に使用する探索レベルの調整方法を示す。
論文 参考訳(メタデータ) (2024-05-03T16:45:15Z) - Automated Detection and Analysis of Data Practices Using A Real-World
Corpus [20.4572759138767]
プライバシポリシ内のデータプラクティスを,さまざまなレベルで詳細に識別し視覚化するための,自動アプローチを提案する。
提案手法は,データ実践記述とポリシー記述とを正確にマッチングし,ユーザへの簡易なプライバシ情報の提示を容易にする。
論文 参考訳(メタデータ) (2024-02-16T18:51:40Z) - Offline RL with No OOD Actions: In-Sample Learning via Implicit Value
Regularization [90.9780151608281]
インサンプルラーニング(IQL)は、データサンプルのみを使用して、定量的回帰によってポリシーを改善する。
サンプル内学習のパラダイムがtextitImplicit Value Regularization (IVR) フレームワークの下で生まれることを確認する。
Sparse $Q$-learning (EQL)とExponential $Q$-learning (EQL)の2つの実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-28T08:30:01Z) - Mutual Information Regularized Offline Reinforcement Learning [76.05299071490913]
我々は、データセットにおける状態と行動間の相互情報の観点から、オフラインRLにアプローチする新しいMISAフレームワークを提案する。
この下位境界の最適化は、オフラインデータセット上での一段階改善されたポリシーの可能性の最大化と等価であることを示す。
MISAの3つの異なる変種を導入し、より厳密な相互情報によりオフラインのRL性能が向上することを示した。
論文 参考訳(メタデータ) (2022-10-14T03:22:43Z) - Policy Information Capacity: Information-Theoretic Measure for Task
Complexity in Deep Reinforcement Learning [83.66080019570461]
課題の難易度について,環境にとらわれない,アルゴリズムにとらわれない2つの定量的指標を提案する。
これらの指標は、様々な代替案よりも、正規化タスク可解性スコアとの相関が高いことを示す。
これらのメトリクスは、鍵設計パラメータの高速かつ計算効率の良い最適化にも使用できる。
論文 参考訳(メタデータ) (2021-03-23T17:49:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。