論文の概要: PolicyLR: A Logic Representation For Privacy Policies
- arxiv url: http://arxiv.org/abs/2408.14830v1
- Date: Tue, 27 Aug 2024 07:27:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-28 14:45:05.212116
- Title: PolicyLR: A Logic Representation For Privacy Policies
- Title(参考訳): PolicyLR: プライバシポリシーの論理的表現
- Authors: Ashish Hooda, Rishabh Khandelwal, Prasad Chalasani, Kassem Fawaz, Somesh Jha,
- Abstract要約: 我々は、プライバシポリシーの包括的な機械可読表現を提供する新しいパラダイムであるPolicyLRを提案する。
PolicyLRは、プライバシーポリシーを原子式の評価を用いて機械可読形式に変換する。
ポリシコンプライアンス,一貫性検出,プライバシ比較ショッピングという3つのプライバシタスクにおいて,ポリシLRを実証する。
- 参考スコア(独自算出の注目度): 34.73520882451813
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy policies are crucial in the online ecosystem, defining how services handle user data and adhere to regulations such as GDPR and CCPA. However, their complexity and frequent updates often make them difficult for stakeholders to understand and analyze. Current automated analysis methods, which utilize natural language processing, have limitations. They typically focus on individual tasks and fail to capture the full context of the policies. We propose PolicyLR, a new paradigm that offers a comprehensive machine-readable representation of privacy policies, serving as an all-in-one solution for multiple downstream tasks. PolicyLR converts privacy policies into a machine-readable format using valuations of atomic formulae, allowing for formal definitions of tasks like compliance and consistency. We have developed a compiler that transforms unstructured policy text into this format using off-the-shelf Large Language Models (LLMs). This compiler breaks down the transformation task into a two-stage translation and entailment procedure. This procedure considers the full context of the privacy policy to infer a complex formula, where each formula consists of simpler atomic formulae. The advantage of this model is that PolicyLR is interpretable by design and grounded in segments of the privacy policy. We evaluated the compiler using ToS;DR, a community-annotated privacy policy entailment dataset. Utilizing open-source LLMs, our compiler achieves precision and recall values of 0.91 and 0.88, respectively. Finally, we demonstrate the utility of PolicyLR in three privacy tasks: Policy Compliance, Inconsistency Detection, and Privacy Comparison Shopping.
- Abstract(参考訳): プライバシポリシは、サービスがユーザデータをどのように扱うかを定義し、GDPRやCCPAなどの規制に準拠している、オンラインエコシステムにおいて不可欠である。
しかし、その複雑さと頻繁な更新は、ステークホルダーが理解し分析することを難しくすることが多い。
現在の自然言語処理を利用した自動解析手法には限界がある。
通常、個々のタスクに集中し、ポリシーの完全なコンテキストをキャプチャできない。
我々は、複数のダウンストリームタスクに対するオールインワンソリューションとして機能する、プライバシポリシーの包括的なマシン可読表現を提供する新しいパラダイムであるPolicyLRを提案する。
PolicyLRは、プライバシポリシをアトミックな公式のバリュエーションを使用してマシン可読フォーマットに変換し、コンプライアンスや一貫性といったタスクの正式な定義を可能にする。
既成のLarge Language Models (LLM) を用いて,非構造化ポリシーテキストをこの形式に変換するコンパイラを開発した。
このコンパイラはトランスフォーメーションタスクを2段階のトランスフォーメーションとentailmentプロシージャに分解する。
この手順は、より単純な原子式からなる複雑な公式を推論するために、プライバシーポリシーの完全なコンテキストを考える。
このモデルの利点は、ポリシーLRは設計によって解釈され、プライバシポリシーのセグメントに基礎を置いていることである。
コミュニティアノテートされたプライバシーポリシー関連データセットであるToS;DRを用いて,コンパイラの評価を行った。
オープンソース LLM を用いて,コンパイラはそれぞれ0.91 と 0.88 の精度とリコール値を達成する。
最後に、ポリシコンプライアンス、一貫性検出、プライバシ比較ショッピングの3つのプライバシタスクにおいて、PolicyLRの有用性を実証する。
関連論文リスト
- Statistical Analysis of Policy Space Compression Problem [54.1754937830779]
政策探索手法は強化学習において重要であり、継続的な状態反応と部分的に観察可能な問題に対処するための枠組みを提供する。
政策圧縮による政策空間の削減は、学習プロセスを加速するための強力で報酬のないアプローチとして現れます。
この手法は方針空間をより小さく代表的な集合に凝縮し、元の効果のほとんどを維持している。
論文 参考訳(メタデータ) (2024-11-15T02:46:55Z) - Harpocrates: A Statically Typed Privacy Conscious Programming Framework [1.4732811715354455]
Harpocratesは、ポリシーで保護されたタイプの生データをアプリケーションから取り除き、保護された形でのみ存在することを保証します。
Harpocrasは、ポリシー膜内のアプリケーション全体にデータを自由に流すことができるが、データにアクセス、変更、非分類化、あるいはアプリケーション境界を通過する際にポリシーを強制する。
論文 参考訳(メタデータ) (2024-11-10T00:28:58Z) - Privacy Policy Analysis through Prompt Engineering for LLMs [3.059256166047627]
PAPEL (Privacy Policy Analysis through Prompt Engineering for LLMs) は、Large Language Models (LLMs) の力を利用してプライバシーポリシーの分析を自動化するフレームワークである。
これらのポリシーからの情報の抽出、アノテーション、要約を合理化し、追加のモデルトレーニングを必要とせず、アクセシビリティと理解性を高めることを目的としている。
PAPELの有効性を, (i) アノテーションと (ii) 矛盾解析の2つの応用で実証した。
論文 参考訳(メタデータ) (2024-09-23T10:23:31Z) - {A New Hope}: Contextual Privacy Policies for Mobile Applications and An
Approach Toward Automated Generation [19.578130824867596]
コンテキストプライバシポリシ(CPP)の目的は、プライバシポリシを簡潔なスニペットに断片化し、アプリケーションのグラフィカルユーザインターフェース(GUI)内の対応するコンテキスト内でのみ表示することである。
本稿では,モバイルアプリケーションシナリオでCPPを初めて定式化し,モバイルアプリケーション用のCPPを自動生成するSeePrivacyという新しいマルチモーダルフレームワークを提案する。
人間の評価では、抽出されたプライバシーポリシーセグメントの77%が、検出されたコンテキストと適切に一致していると認識されている。
論文 参考訳(メタデータ) (2024-02-22T13:32:33Z) - Taypsi: Static Enforcement of Privacy Policies for Policy-Agnostic Oblivious Computation [0.0]
セキュアなマルチパーティ計算(MPC)技術により、複数のパーティが、データを他のパーティと共有することなく、プライベートデータ上のジョイント関数を計算できる。
ほとんどのMPC言語では、ユーザーは単一のアプリケーションでプログラムとプライバシの懸念を混在させ、プログラムの基盤となるプライバシポリシーの変更や監査を困難にしている。
この研究は、プログラムを静的にユーザが提供するプライバシポリシを強制する意味論的に等価なバージョンに変換することによって、このオーバーヘッドを取り除くことを提案する。
論文 参考訳(メタデータ) (2023-11-15T21:39:30Z) - Efficient Policy Iteration for Robust Markov Decision Processes via
Regularization [49.05403412954533]
ロバストな意思決定プロセス(MDP)は、システムのダイナミクスが変化している、あるいは部分的にしか知られていない決定問題をモデル化するためのフレームワークを提供する。
最近の研究は、長方形長方形の$L_p$頑健なMDPと正規化されたMDPの等価性を確立し、標準MDPと同じレベルの効率を享受する規則化されたポリシー反復スキームを導出した。
本研究では、政策改善のステップに焦点をあて、欲求政策と最適なロバストなベルマン作用素のための具体的な形式を導出する。
論文 参考訳(メタデータ) (2022-05-28T04:05:20Z) - Policy Information Capacity: Information-Theoretic Measure for Task
Complexity in Deep Reinforcement Learning [83.66080019570461]
課題の難易度について,環境にとらわれない,アルゴリズムにとらわれない2つの定量的指標を提案する。
これらの指標は、様々な代替案よりも、正規化タスク可解性スコアとの相関が高いことを示す。
これらのメトリクスは、鍵設計パラメータの高速かつ計算効率の良い最適化にも使用できる。
論文 参考訳(メタデータ) (2021-03-23T17:49:50Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy Gradients [54.98496284653234]
報酬を最大化しつつ、行動を通じて特定の機密状態変数の開示を最小限に抑えながら、報酬を最大化する政策を訓練する課題を考察する。
本稿では, 感性状態と行動の相互情報に基づく正則化器を導入することで, この問題を解決する。
プライバシ制約のあるポリシーを最適化するためのモデルベース推定器を開発した。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z) - Beyond The Text: Analysis of Privacy Statements through Syntactic and
Semantic Role Labeling [12.74252812104216]
本稿では,プライバシポリシからコンテキスト整合性(Contextual Integrity)のレンズを通じて,プライバシパラメータを抽出する新たなタスクを定式化する。
最近提案された質問応答に基づくソリューションを含む従来のNLPタスクは、プライバシパラメータ抽出の問題に対処するには不十分であることを示す。
論文 参考訳(メタデータ) (2020-10-01T20:48:37Z) - Preventing Imitation Learning with Adversarial Policy Ensembles [79.81807680370677]
模倣学習は、政策プライバシに関する問題を引き起こす専門家を観察することで、ポリシーを再現することができる。
プロプライエタリなポリシーをクローンする外部オブザーバに対して、どうすれば保護できるのか?
新しい強化学習フレームワークを導入し、準最適政策のアンサンブルを訓練する。
論文 参考訳(メタデータ) (2020-01-31T01:57:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。