論文の概要: PrivComp-KG : Leveraging Knowledge Graph and Large Language Models for Privacy Policy Compliance Verification
- arxiv url: http://arxiv.org/abs/2404.19744v1
- Date: Tue, 30 Apr 2024 17:44:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 13:16:41.281030
- Title: PrivComp-KG : Leveraging Knowledge Graph and Large Language Models for Privacy Policy Compliance Verification
- Title(参考訳): PrivComp-KG : プライバシーポリシーコンプライアンス検証のための知識グラフと大規模言語モデルを活用する
- Authors: Leon Garza, Lavanya Elluri, Anantaa Kotal, Aritran Piplai, Deepti Gupta, Anupam Joshi,
- Abstract要約: 本稿では,プライバシコンプライアンスのためのLarge Language Model (LLM)とSemantic Webベースのアプローチを提案する。
PrivComp-KGは、プライバシーポリシーに関する包括的な情報を効率的に保存し、取り出すように設計されている。
各ベンダーが関連するポリシー規則に違反するプライバシーポリシーの遵守を確認するよう問い合わせることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data protection and privacy is becoming increasingly crucial in the digital era. Numerous companies depend on third-party vendors and service providers to carry out critical functions within their operations, encompassing tasks such as data handling and storage. However, this reliance introduces potential vulnerabilities, as these vendors' security measures and practices may not always align with the standards expected by regulatory bodies. Businesses are required, often under the penalty of law, to ensure compliance with the evolving regulatory rules. Interpreting and implementing these regulations pose challenges due to their complexity. Regulatory documents are extensive, demanding significant effort for interpretation, while vendor-drafted privacy policies often lack the detail required for full legal compliance, leading to ambiguity. To ensure a concise interpretation of the regulatory requirements and compliance of organizational privacy policy with said regulations, we propose a Large Language Model (LLM) and Semantic Web based approach for privacy compliance. In this paper, we develop the novel Privacy Policy Compliance Verification Knowledge Graph, PrivComp-KG. It is designed to efficiently store and retrieve comprehensive information concerning privacy policies, regulatory frameworks, and domain-specific knowledge pertaining to the legal landscape of privacy. Using Retrieval Augmented Generation, we identify the relevant sections in a privacy policy with corresponding regulatory rules. This information about individual privacy policies is populated into the PrivComp-KG. Combining this with the domain context and rules, the PrivComp-KG can be queried to check for compliance with privacy policies by each vendor against relevant policy regulations. We demonstrate the relevance of the PrivComp-KG, by verifying compliance of privacy policy documents for various organizations.
- Abstract(参考訳): データ保護とプライバシーは、デジタル時代においてますます重要になりつつある。
多くの企業は、データ処理やストレージといったタスクを含む、運用内で重要な機能を実行するために、サードパーティベンダやサービスプロバイダに依存しています。
しかしながら、これらのベンダーのセキュリティ対策やプラクティスは、規制機関が期待する標準と必ずしも一致しない可能性があるため、この依存は潜在的な脆弱性をもたらす。
ビジネスは、しばしば法の支配下において、進化する規制規則に準拠するために要求される。
これらの規則の解釈と実装は、複雑さのために困難を生じさせる。
規制文書は広く、解釈のためにかなりの努力を要するが、ベンダーが作成したプライバシーポリシーは、完全な法的コンプライアンスに必要な詳細を欠いていることが多く、曖昧さにつながっている。
規制要件の簡潔な解釈と組織的プライバシポリシーの遵守を確保するため,プライバシー遵守のためのLarge Language Model(LLM)とSemantic Webベースのアプローチを提案する。
本稿では,プライバシポリシコンプライアンス検証知識グラフPrivComp-KGを開発した。
プライバシーポリシー、規制フレームワーク、およびプライバシーの法的状況に関するドメイン固有の知識に関する包括的な情報を効率的に保存し、取得するように設計されている。
Retrieval Augmented Generationを用いて、プライバシーポリシーの関連するセクションを対応する規制ルールで識別する。
このプライバシーポリシーに関する情報はPrivComp-KGに集約されている。
これとドメインコンテキストとルールを組み合わせることで、PrivComp-KGは、関連するポリシー規則に対する各ベンダのプライバシポリシへの準拠を確認するためにクエリすることができる。
各種組織におけるプライバシポリシー文書の遵守を検証することにより,PrivComp-KGの妥当性を実証する。
関連論文リスト
- Differential Privacy Overview and Fundamental Techniques [63.0409690498569]
この章は、"Differential Privacy in Artificial Intelligence: From Theory to Practice"という本の一部である。
まず、データのプライバシ保護のためのさまざまな試みについて説明し、その失敗の場所と理由を強調した。
次に、プライバシ保護データ分析の領域を構成する重要なアクター、タスク、スコープを定義する。
論文 参考訳(メタデータ) (2024-11-07T13:52:11Z) - C3PA: An Open Dataset of Expert-Annotated and Regulation-Aware Privacy Policies to Enable Scalable Regulatory Compliance Audits [7.1195014414194695]
C3PAは、専門家がアノテートしたプライバシポリシの最初の規制対応データセットである。
CCPA固有の開示義務に対する応答に関連する、専門家ラベル付きプライバシポリシテキストセグメントが48K以上含まれている。
論文 参考訳(メタデータ) (2024-10-04T21:04:39Z) - How Privacy-Savvy Are Large Language Models? A Case Study on Compliance and Privacy Technical Review [15.15468770348023]
プライバシ情報抽出(PIE)、法および規制キーポイント検出(KPD)、質問応答(QA)などのプライバシー関連タスクにおいて、大規模言語モデルの性能を評価する。
本稿では, BERT, GPT-3.5, GPT-4, カスタムモデルなど, プライバシコンプライアンスチェックや技術プライバシレビューの実行能力について検討する。
LLMは、プライバシーレビューの自動化と規制上の相違点の特定を約束する一方で、法律標準の進化に完全に準拠する能力において、大きなギャップが持続している。
論文 参考訳(メタデータ) (2024-09-04T01:51:37Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - GoldCoin: Grounding Large Language Models in Privacy Laws via Contextual Integrity Theory [44.297102658873726]
これまでの研究では、さまざまなプライバシー攻撃、防御、評価を狭義に定義されたパターンの中で探索することで、プライバシを研究する。
我々は,プライバシ違反を評価する司法法において,LLMを効果的に活用するための新しい枠組みであるGoldCoinを紹介した。
我々のフレームワークは、コンテキスト整合性の理論をブリッジとして活用し、関連するプライバシー法に基づく多数の合成シナリオを作成する。
論文 参考訳(メタデータ) (2024-06-17T02:27:32Z) - Assessing Mobile Application Privacy: A Quantitative Framework for Privacy Measurement [0.0]
この研究は、プライバシを優先し、情報に基づく意思決定を促進し、プライバシ保護設計原則を支持したデジタル環境に貢献することを目的としている。
このフレームワークの目的は、特定のAndroidアプリケーションを使用する際のプライバシーリスクのレベルを体系的に評価することである。
論文 参考訳(メタデータ) (2023-10-31T18:12:19Z) - Advancing Differential Privacy: Where We Are Now and Future Directions for Real-World Deployment [100.1798289103163]
差分プライバシ(DP)分野における現状と現状の方法論の詳細なレビューを行う。
論文のポイントとハイレベルな内容は,「認知プライバシ(DP:次のフロンティアへの挑戦)」の議論から生まれた。
この記事では、プライバシの領域におけるアルゴリズムおよび設計決定の基準点を提供することを目標とし、重要な課題と潜在的研究の方向性を強調します。
論文 参考訳(メタデータ) (2023-04-14T05:29:18Z) - PLUE: Language Understanding Evaluation Benchmark for Privacy Policies
in English [77.79102359580702]
プライバシポリシ言語理解評価ベンチマークは,プライバシポリシ言語理解を評価するマルチタスクベンチマークである。
また、プライバシポリシの大規模なコーパスを収集し、プライバシポリシドメイン固有の言語モデル事前トレーニングを可能にします。
ドメイン固有の連続的な事前トレーニングは、すべてのタスクでパフォーマンスを改善することを実証します。
論文 参考訳(メタデータ) (2022-12-20T05:58:32Z) - Exploring Consequences of Privacy Policies with Narrative Generation via
Answer Set Programming [0.0]
プライバシポリシの形式化にAnswer Set Programming(ASP)を使用するフレームワークを提案する。
ASP.NETは、エンドユーザがアクターの観点からポリシーの結果を前方にシミュレートすることを可能にする。
本稿では,健康保険の可搬性と説明責任法(Health Insurance Portability and Accountability Act)の事例を通じて,様々な方法でシステムを利用する方法を紹介する。
論文 参考訳(メタデータ) (2022-12-13T16:44:46Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Detecting Compliance of Privacy Policies with Data Protection Laws [0.0]
プライバシーポリシーは、しばしば理解が難しい広範囲の法的用語で書かれる。
我々は、さまざまなデータ保護法に基づきプライバシーポリシーを分析するフレームワークを提供することで、このギャップを埋めることを目指している。
このようなツールを使用することで、ユーザーは自分の個人データがどのように管理されているかを理解することができます。
論文 参考訳(メタデータ) (2021-02-21T09:15:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。