論文の概要: Smart Privacy Policy Assistant: An LLM-Powered System for Transparent and Actionable Privacy Notices
- arxiv url: http://arxiv.org/abs/2601.06357v1
- Date: Fri, 09 Jan 2026 23:42:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.770405
- Title: Smart Privacy Policy Assistant: An LLM-Powered System for Transparent and Actionable Privacy Notices
- Title(参考訳): スマートプライバシポリシーアシスタント:透明でアクション可能なプライバシ通知のためのLLMベースのシステム
- Authors: Sriharshini Kalvakuntla, Luoxi Tang, Yuqiao Meng, Zhaohan Xi,
- Abstract要約: ほとんどのユーザーは、個人情報の収集、共有、収益化の方法を規定しているにもかかわらず、閲覧や理解なしにオンラインプライバシポリシーに同意する。
本稿では,LLMを利用したスマートプライバシポリシアシスタントを提案する。プライバシポリシを自動的に取り込み,キー句を抽出,分類し,人間の解釈可能なリスクレベルを割り当て,明確で簡潔な説明を生成する。
本稿では, ポリシーの取り込み, 条項分類, リスクスコアリング, 説明生成を含むエンドツーエンドパイプラインについて述べるとともに, 条項レベルの正確性, ポリシーレベルのリスク合意, ユーザ理解に基づく評価フレームワークを提案する。
- 参考スコア(独自算出の注目度): 3.914632811815449
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most users agree to online privacy policies without reading or understanding them, even though these documents govern how personal data is collected, shared, and monetized. Privacy policies are typically long, legally complex, and difficult for non-experts to interpret. This paper presents the Smart Privacy Policy Assistant, an LLM-powered system that automatically ingests privacy policies, extracts and categorizes key clauses, assigns human-interpretable risk levels, and generates clear, concise explanations. The system is designed for real-time use through browser extensions or mobile interfaces, surfacing contextual warnings before users disclose sensitive information or grant risky permissions. We describe the end-to-end pipeline, including policy ingestion, clause categorization, risk scoring, and explanation generation, and propose an evaluation framework based on clause-level accuracy, policy-level risk agreement, and user comprehension.
- Abstract(参考訳): ほとんどのユーザーは、個人情報の収集、共有、収益化の方法を規定しているにもかかわらず、閲覧や理解なしにオンラインプライバシポリシーに同意する。
プライバシーポリシーは一般的に長く、法的に複雑であり、非専門家が解釈するのが困難である。
本稿では,LLMを利用したスマートプライバシポリシアシスタントを提案する。プライバシポリシを自動的に取り込み,キー句を抽出,分類し,人間の解釈可能なリスクレベルを割り当て,明確で簡潔な説明を生成する。
このシステムはブラウザエクステンションやモバイルインターフェースを通じてリアルタイムに使用するために設計されており、ユーザが機密情報を開示したり、危険な許可を与える前にコンテキスト警告を提示する。
本稿では, ポリシーの取り込み, 条項分類, リスクスコアリング, 説明生成を含むエンドツーエンドパイプラインについて述べるとともに, 条項レベルの正確性, ポリシーレベルのリスク合意, ユーザ理解に基づく評価フレームワークを提案する。
関連論文リスト
- MAGPIE: A dataset for Multi-AGent contextual PrIvacy Evaluation [54.410825977390274]
LLMエージェントのコンテキストプライバシを評価するための既存のベンチマークは、主にシングルターン、低複雑さタスクを評価する。
まず、15ドメインにわたる158のリアルタイムハイテイクシナリオからなるベンチマーク-MAGPIEを示す。
次に、コンテキスト的にプライベートなデータに対する理解と、ユーザのプライバシを侵害することなくコラボレーションする能力に基づいて、最先端のLCMを評価します。
論文 参考訳(メタデータ) (2025-06-25T18:04:25Z) - Protecting Users From Themselves: Safeguarding Contextual Privacy in Interactions with Conversational Agents [33.26308626066122]
会話エージェント(LCA)とのユーザインタラクションにおけるコンテキストプライバシの概念を特徴付ける。
これは、ユーザーが意図した目標を達成するのに必要な情報のみを(ベンダー)が開示することを保証することで、プライバシー上のリスクを最小限にすることを目的としている。
本稿では,ユーザとLCA間のローカルデプロイ可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-22T09:05:39Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - A Human-in-the-Loop Approach for Information Extraction from Privacy
Policies under Data Scarcity [0.0]
プライバシポリシアノテーションに対するHuman-in-the-Loopアプローチのプロトタイプシステムを提案する。
本稿では,プライバシポリシアノテーションの領域で一般的なデータ不足の制約に特化して,MLに基づく提案システムを提案する。
論文 参考訳(メタデータ) (2023-05-24T10:45:26Z) - PLUE: Language Understanding Evaluation Benchmark for Privacy Policies
in English [77.79102359580702]
プライバシポリシ言語理解評価ベンチマークは,プライバシポリシ言語理解を評価するマルチタスクベンチマークである。
また、プライバシポリシの大規模なコーパスを収集し、プライバシポリシドメイン固有の言語モデル事前トレーニングを可能にします。
ドメイン固有の連続的な事前トレーニングは、すべてのタスクでパフォーマンスを改善することを実証します。
論文 参考訳(メタデータ) (2022-12-20T05:58:32Z) - Exploring Consequences of Privacy Policies with Narrative Generation via
Answer Set Programming [0.0]
プライバシポリシの形式化にAnswer Set Programming(ASP)を使用するフレームワークを提案する。
ASP.NETは、エンドユーザがアクターの観点からポリシーの結果を前方にシミュレートすることを可能にする。
本稿では,健康保険の可搬性と説明責任法(Health Insurance Portability and Accountability Act)の事例を通じて,様々な方法でシステムを利用する方法を紹介する。
論文 参考訳(メタデータ) (2022-12-13T16:44:46Z) - Privacy Policy Question Answering Assistant: A Query-Guided Extractive
Summarization Approach [18.51811191325837]
入力されたユーザクエリに応答して要約を抽出する自動プライバシポリシ質問応答アシスタントを提案する。
なぜなら、ユーザーはプライバシーに関する質問を、ポリシーの法的言語とは全く異なる言語で表現するからだ。
当社のパイプラインでは,プライバシQAデータセットのユーザクエリの89%に対して,回答を見つけています。
論文 参考訳(メタデータ) (2021-09-29T18:00:09Z) - PolicyQA: A Reading Comprehension Dataset for Privacy Policies [77.79102359580702]
既存のWebサイトプライバシポリシ115のコーパスから算出した,25,017の理解スタイルの例を含むデータセットであるPolicyQAを提案する。
既存の2つのニューラルQAモデルを評価し、厳密な分析を行い、ポリシQAが提供する利点と課題を明らかにする。
論文 参考訳(メタデータ) (2020-10-06T09:04:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。