論文の概要: LADFA: A Framework of Using Large Language Models and Retrieval-Augmented Generation for Personal Data Flow Analysis in Privacy Policies
- arxiv url: http://arxiv.org/abs/2601.10413v1
- Date: Thu, 15 Jan 2026 14:03:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.157613
- Title: LADFA: A Framework of Using Large Language Models and Retrieval-Augmented Generation for Personal Data Flow Analysis in Privacy Policies
- Title(参考訳): LADFA:プライバシポリシにおける個人データフロー分析のための大規模言語モデルと検索拡張生成フレームワーク
- Authors: Haiyue Yuan, Nikolay Matyunin, Ali Raza, Shujun Li,
- Abstract要約: LADFAはプライバシーポリシーを分析するためのエンドツーエンドの計算フレームワークである。
特定のプライバシポリシで非構造化テキストを処理し、個人データフローを抽出し、個人データフローグラフを構築することができる。
プライバシーポリシー分析以外のテキストベースの分析タスクにも適している。
- 参考スコア(独自算出の注目度): 3.1079404628759306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy policies help inform people about organisations' personal data processing practices, covering different aspects such as data collection, data storage, and sharing of personal data with third parties. Privacy policies are often difficult for people to fully comprehend due to the lengthy and complex legal language used and inconsistent practices across different sectors and organisations. To help conduct automated and large-scale analyses of privacy policies, many researchers have studied applications of machine learning and natural language processing techniques, including large language models (LLMs). While a limited number of prior studies utilised LLMs for extracting personal data flows from privacy policies, our approach builds on this line of work by combining LLMs with retrieval-augmented generation (RAG) and a customised knowledge base derived from existing studies. This paper presents the development of LADFA, an end-to-end computational framework, which can process unstructured text in a given privacy policy, extract personal data flows and construct a personal data flow graph, and conduct analysis of the data flow graph to facilitate insight discovery. The framework consists of a pre-processor, an LLM-based processor, and a data flow post-processor. We demonstrated and validated the effectiveness and accuracy of the proposed approach by conducting a case study that involved examining ten selected privacy policies from the automotive industry. Moreover, it is worth noting that LADFA is designed to be flexible and customisable, making it suitable for a range of text-based analysis tasks beyond privacy policy analysis.
- Abstract(参考訳): プライバシポリシは、データ収集やデータストレージ、個人情報のサードパーティとの共有など、さまざまな側面をカバーする、組織の個人データ処理プラクティスに関する通知を支援する。
プライバシーポリシーは、様々な分野や組織で使用される長く複雑な法律言語と一貫性のない実践のために、人々が完全に理解することが難しい場合が多い。
プライバシーポリシーの自動化と大規模分析を支援するため、多くの研究者が機械学習と自然言語処理技術の応用について研究している。
プライバシポリシから個人データフローを抽出するために,LLMを利用する先行研究は限られているが,本手法は,LLMを検索強化世代(RAG)と,既存の研究から派生したカスタマイズ知識ベースを組み合わせることで,この一連の作業に基づいている。
本稿では,あるプライバシポリシにおいて非構造化テキストを処理し,個人データフローを抽出し,個人データフローグラフを構築し,洞察発見を容易にするためのデータフローグラフの解析を行う,エンドツーエンドの計算フレームワークであるLADFAの開発について述べる。
フレームワークは、プリプロセッサ、LLMベースのプロセッサ、データフロー後プロセッサで構成されている。
提案手法の有効性と精度を,自動車業界から選ばれた10のプライバシポリシーを検討するケーススタディによって実証し,検証した。
さらに、LADFAはフレキシブルでカスタマイズ可能なように設計されており、プライバシポリシ分析以外のテキストベースの分析タスクにも適している点にも注意が必要だ。
関連論文リスト
- User Behavior Analysis in Privacy Protection with Large Language Models: A Study on Privacy Preferences with Limited Data [5.152440245370642]
本研究では,大言語モデル(LLM)が,限られたデータを持つシナリオにおいて,プライバシ保護に関連するユーザの行動を分析する方法について検討する。
この研究は匿名化されたユーザプライバシ設定データ、サーベイレスポンス、シミュレートされたデータを利用している。
実験結果から, LLMは限られたデータであっても, プライバシ・プライオリティ・モデリングの精度を著しく向上することが示された。
論文 参考訳(メタデータ) (2025-05-08T04:42:17Z) - LLM-PBE: Assessing Data Privacy in Large Language Models [111.58198436835036]
大規模言語モデル(LLM)は多くのドメインに不可欠なものとなり、データ管理、マイニング、分析におけるアプリケーションを大幅に進歩させた。
この問題の批判的な性質にもかかわらず、LLMにおけるデータプライバシのリスクを総合的に評価する文献は存在しない。
本稿では,LLMにおけるデータプライバシリスクの体系的評価を目的としたツールキットであるLLM-PBEを紹介する。
論文 参考訳(メタデータ) (2024-08-23T01:37:29Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - Large Language Models: A New Approach for Privacy Policy Analysis at Scale [1.7570777893613145]
本研究は,大規模プライバシポリシから効果的かつ効率的にプライバシプラクティスを抽出する代替手段として,LLM(Large Language Models)の適用を提案する。
我々はChatGPTやLlama 2といった有名なLLMを活用し、プロンプト、パラメータ、モデルの最適設計に関するガイダンスを提供する。
評価では、ドメイン内のいくつかの有名なデータセットをベンチマークとして、その例外的な性能を評価し、F1スコアが93%を超えた。
論文 参考訳(メタデータ) (2024-05-31T15:12:33Z) - On Protecting the Data Privacy of Large Language Models (LLMs): A Survey [35.48984524483533]
LLM(Large Language Model)は、人間の言語を理解し、生成し、翻訳できる複雑な人工知能システムである。
LLMは大量のデータを処理して生成し、データプライバシを脅かす可能性がある。
論文 参考訳(メタデータ) (2024-03-08T08:47:48Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。