論文の概要: An LLM-enabled semantic-centric framework to consume privacy policies
- arxiv url: http://arxiv.org/abs/2509.01716v1
- Date: Mon, 01 Sep 2025 18:53:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.822302
- Title: An LLM-enabled semantic-centric framework to consume privacy policies
- Title(参考訳): プライバシポリシを利用するLLM対応セマンティック中心フレームワーク
- Authors: Rui Zhao, Vladyslav Melnychuk, Jun Zhao, Jesse Wright, Nigel Shadbolt,
- Abstract要約: プライバシポリシからプライバシプラクティスを特定するために,最先端の大規模言語モデル(LLM)を使用するためのセマンティックなアプローチを提案する。
我々は、下流タスクをサポートするプライバシープラクティスのために、データプライバシ語彙(DPV)に基づく知識グラフを構築した。
パイプラインに加えて、上位100のWebサイト向けの$mathitPr2mathitGraph$も公開リソースとしてリリースされている。
- 参考スコア(独自算出の注目度): 16.212112740390822
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In modern times, people have numerous online accounts, but they rarely read the Terms of Service or Privacy Policy of those sites, despite claiming otherwise, due to the practical difficulty in comprehending them. The mist of data privacy practices forms a major barrier for user-centred Web approaches, and for data sharing and reusing in an agentic world. Existing research proposed methods for using formal languages and reasoning for verifying the compliance of a specified policy, as a potential cure for ignoring privacy policies. However, a critical gap remains in the creation or acquisition of such formal policies at scale. We present a semantic-centric approach for using state-of-the-art large language models (LLM), to automatically identify key information about privacy practices from privacy policies, and construct $\mathit{Pr}^2\mathit{Graph}$, knowledge graph with grounding from Data Privacy Vocabulary (DPV) for privacy practices, to support downstream tasks. Along with the pipeline, the $\mathit{Pr}^2\mathit{Graph}$ for the top-100 popular websites is also released as a public resource, by using the pipeline for analysis. We also demonstrate how the $\mathit{Pr}^2\mathit{Graph}$ can be used to support downstream tasks by constructing formal policy representations such as Open Digital Right Language (ODRL) or perennial semantic Data Terms of Use (psDToU). To evaluate the technology capability, we enriched the Policy-IE dataset by employing legal experts to create custom annotations. We benchmarked the performance of different large language models for our pipeline and verified their capabilities. Overall, they shed light on the possibility of large-scale analysis of online services' privacy practices, as a promising direction to audit the Web and the Internet. We release all datasets and source code as public resources to facilitate reuse and improvement.
- Abstract(参考訳): 現代では、多くのオンラインアカウントを持っているが、それらのサイトのサービス規約やプライバシポリシーを読むことはめったにない。
データプライバシの実践の霧は、ユーザ中心のWebアプローチと、エージェントの世界におけるデータ共有と再利用の大きな障壁を形成します。
既存の研究では、プライバシーポリシーを無視した潜在的な治療法として、形式言語の使用法と、特定のポリシーの遵守を検証する推論法が提案されている。
しかし、このような形式的な政策を大規模に作成または獲得する上で、重大なギャップが残っている。
本稿では,現在最先端の大規模言語モデル(LLM)を用いて,プライバシポリシからプライバシプラクティスに関する重要な情報を自動的に識別し,プライバシプラクティスにデータプライバシ語彙(DPV)をベースとした知識グラフである$\mathit{Pr}^2\mathit{Graph}$を構築し,下流タスクをサポートする。
パイプラインとともに、上位100のWebサイト向けの$\mathit{Pr}^2\mathit{Graph}$も、分析にパイプラインを使用することで、パブリックリソースとしてリリースされた。
また、$\mathit{Pr}^2\mathit{Graph}$は、Open Digital Right Language (ODRL)やPerennial semantic Data Terms of Use (psDToU)のような形式的なポリシー表現を構築することで、下流タスクをサポートすることができることを示す。
技術的能力を評価するため、我々は法の専門家を用いてカスタムアノテーションを作成することにより、ポリシー-IEデータセットを充実させた。
パイプラインのために、さまざまな大きな言語モデルのパフォーマンスをベンチマークし、その能力を確認しました。
全体として、彼らはウェブとインターネットを監査する有望な方向として、オンラインサービスのプライバシープラクティスを大規模に分析する可能性を強調した。
再利用と改善を容易にするために、すべてのデータセットとソースコードを公開リソースとしてリリースします。
関連論文リスト
- Let's Measure the Elephant in the Room: Facilitating Personalized Automated Analysis of Privacy Policies at Scale [14.986181740022106]
PoliAnalyzerは、パーソナライズされたプライバシポリシ分析を支援するニューロシンボリックシステムである。
自然言語処理を使用して、ポリシーテキストからデータ使用慣行の形式的な表現を抽出する。
オフザシェルフのNLPツールを使用して、大規模にパーソナライズされたプライバシポリシの自動分析をサポートすることができる。
論文 参考訳(メタデータ) (2025-07-15T20:19:33Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - Large Language Models: A New Approach for Privacy Policy Analysis at Scale [1.7570777893613145]
本研究は,大規模プライバシポリシから効果的かつ効率的にプライバシプラクティスを抽出する代替手段として,LLM(Large Language Models)の適用を提案する。
我々はChatGPTやLlama 2といった有名なLLMを活用し、プロンプト、パラメータ、モデルの最適設計に関するガイダンスを提供する。
評価では、ドメイン内のいくつかの有名なデータセットをベンチマークとして、その例外的な性能を評価し、F1スコアが93%を超えた。
論文 参考訳(メタデータ) (2024-05-31T15:12:33Z) - Privacy-Preserving Algorithmic Recourse [9.810419669376053]
PrivRecourseは、リコースパスのためのエンドツーエンドのプライバシ保護パイプラインです。
PrivRecourseは、プライベートデータセットの重複しないサブセットを表現するために、差分プライベート(DP)クラスタリングを使用する。
金融データセットに対する我々のアプローチを実証的に評価し、それを単にデータインスタンスにノイズを加えるのと比較します。
論文 参考訳(メタデータ) (2023-11-23T18:08:15Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - PolicyGPT: Automated Analysis of Privacy Policies with Large Language
Models [41.969546784168905]
実際に使う場合、ユーザーは慎重に読むのではなく、Agreeボタンを直接クリックする傾向がある。
このプラクティスは、プライバシーの漏洩や法的問題のリスクにユーザをさらけ出す。
近年,ChatGPT や GPT-4 などの大規模言語モデル (LLM) が出現し,テキスト解析の新たな可能性が高まっている。
論文 参考訳(メタデータ) (2023-09-19T01:22:42Z) - Privacy Implications of Retrieval-Based Language Models [26.87950501433784]
本稿では,検索に基づくLM,特に$k$NN-LMにおけるプライバシリスクに関する最初の研究について述べる。
パラメトリックモデルよりも、$k$NN-LMsの方がプライベートデータストアから個人情報をリークする可能性が高いことがわかりました。
論文 参考訳(メタデータ) (2023-05-24T08:37:27Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - PGLP: Customizable and Rigorous Location Privacy through Policy Graph [68.3736286350014]
我々はPGLPと呼ばれる新しい位置プライバシーの概念を提案し、カスタマイズ可能で厳格なプライバシー保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
具体的には,ユーザの位置プライバシー要件を,表現的かつカスタマイズ可能なテキスト配置ポリシーグラフを用いて形式化する。
第3に、位置露光の検出、ポリシーグラフの修復、およびカスタマイズ可能な厳格な位置プライバシーを備えたプライベートな軌跡リリースをパイプライン化する、プライベートな位置トレースリリースフレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-04T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。