論文の概要: A Longitudinal Measurement of Privacy Policy Evolution for Large Language Models
- arxiv url: http://arxiv.org/abs/2511.21758v1
- Date: Mon, 24 Nov 2025 12:40:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.215537
- Title: A Longitudinal Measurement of Privacy Policy Evolution for Large Language Models
- Title(参考訳): 大規模言語モデルにおけるプライバシポリシ進化の経時的測定
- Authors: Zhen Tao, Shidong Pan, Zhenchang Xing, Emily Black, Talia Gillis, Chunyang Chen,
- Abstract要約: 本稿では,世界の主要言語モデル (LLM) プロバイダのプライバシポリシに関する,最初の縦断的研究について述べる。
我々は,2025年8月までの5カ国11 LLMプロバイダから,74の歴史的プライバシポリシと115の補足的なプライバシドキュメントの時系列データセットをキュレートする。
我々は、連続したポリシーバージョン間の3000以上の文レベルの編集を抽出し、LLMプライバシポリシーに適した分類法を提案する。
- 参考スコア(独自算出の注目度): 21.528443835703055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language model (LLM) services have been rapidly integrated into people's daily lives as chatbots and agentic systems. They are nourished by collecting rich streams of data, raising privacy concerns around excessive collection of sensitive personal information. Privacy policies are the fundamental mechanism for informing users about data practices in modern information privacy paradigm. Although traditional web and mobile policies are well studied, the privacy policies of LLM providers, their LLM-specific content, and their evolution over time remain largely underexplored. In this paper, we present the first longitudinal empirical study of privacy policies for mainstream LLM providers worldwide. We curate a chronological dataset of 74 historical privacy policies and 115 supplemental privacy documents from 11 LLM providers across 5 countries up to August 2025, and extract over 3,000 sentence-level edits between consecutive policy versions. We compare LLM privacy policies to those of other software formats, propose a taxonomy tailored to LLM privacy policies, annotate policy edits and align them with a timeline of key LLM ecosystem events. Results show they are substantially longer, demand college-level reading ability, and remain highly vague. Our taxonomy analysis reveals patterns in how providers disclose LLM-specific practices and highlights regional disparities in coverage. Policy edits are concentrated in first-party data collection and international/specific-audience sections, and that product releases and regulatory actions are the primary drivers, shedding light on the status quo and the evolution of LLM privacy policies.
- Abstract(参考訳): 大規模言語モデル(LLM)サービスは、チャットボットやエージェントシステムとして、人々の日常生活に急速に統合されている。
彼らは、豊富なデータストリームを収集し、機密性の高い個人情報の過剰な収集に関するプライバシー上の懸念を提起することで、育てられている。
プライバシポリシは,現代的な情報プライバシパラダイムにおけるデータプラクティスをユーザに通知する基本的なメカニズムである。
従来のWebとモバイルのポリシーはよく研究されているが、LLMプロバイダのプライバシポリシ、LLM固有のコンテンツ、そしてその進化は、ほとんど探索されていないままである。
本稿では,LLMプロバイダのプライバシポリシについて,世界で初めて縦断的研究を行った。
我々は,2025年8月までの5カ国11 LLMプロバイダから,74の歴史的プライバシポリシと115の補足的プライバシドキュメントの時系列データセットをキュレートし,連続したポリシーバージョン間の3000以上の文レベルの編集を抽出する。
LLMのプライバシポリシを他のソフトウェアフォーマットと比較し、LLMのプライバシポリシに合わせた分類を提案し、ポリシー編集を注釈付けし、重要なLLMエコシステムイベントのタイムラインと整合させる。
結果は、かなり長く、大学レベルの読解能力を必要としており、非常に曖昧なままであることを示している。
筆者らの分類学分析は, LLM固有の実践の開示方法のパターンを明らかにし, 範囲の地域差を強調している。
ポリシーの編集は、ファーストパーティのデータ収集と国際/特定のオーディエンスセクションに集中しており、製品のリリースと規制活動が主要な要因であり、現状とLLMプライバシポリシの進化に光を当てている。
関連論文リスト
- MAGPIE: A dataset for Multi-AGent contextual PrIvacy Evaluation [54.410825977390274]
LLMエージェントのコンテキストプライバシを評価するための既存のベンチマークは、主にシングルターン、低複雑さタスクを評価する。
まず、15ドメインにわたる158のリアルタイムハイテイクシナリオからなるベンチマーク-MAGPIEを示す。
次に、コンテキスト的にプライベートなデータに対する理解と、ユーザのプライバシを侵害することなくコラボレーションする能力に基づいて、最先端のLCMを評価します。
論文 参考訳(メタデータ) (2025-06-25T18:04:25Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - LLM-PBE: Assessing Data Privacy in Large Language Models [111.58198436835036]
大規模言語モデル(LLM)は多くのドメインに不可欠なものとなり、データ管理、マイニング、分析におけるアプリケーションを大幅に進歩させた。
この問題の批判的な性質にもかかわらず、LLMにおけるデータプライバシのリスクを総合的に評価する文献は存在しない。
本稿では,LLMにおけるデータプライバシリスクの体系的評価を目的としたツールキットであるLLM-PBEを紹介する。
論文 参考訳(メタデータ) (2024-08-23T01:37:29Z) - On Protecting the Data Privacy of Large Language Models (LLMs): A Survey [35.48984524483533]
LLM(Large Language Model)は、人間の言語を理解し、生成し、翻訳できる複雑な人工知能システムである。
LLMは大量のデータを処理して生成し、データプライバシを脅かす可能性がある。
論文 参考訳(メタデータ) (2024-03-08T08:47:48Z) - Privacy Policies over Time: Curation and Analysis of a Million-Document
Dataset [6.060757543617328]
我々は,インターネットアーカイブのWayback Machineからアーカイブされたプライバシーポリシーを発見し,ダウンロードし,抽出するクローラを開発した。
私たちは、20年以上にわたって、13万以上の異なるウェブサイトにまたがる、1,071,488の英語のプライバシーポリシーのデータセットをキュレートしました。
我々のデータによると、サードパーティーのウェブサイトの自己規制は停滞しており、サードパーティの自己規制は増加しているが、オンライン広告取引団体が支配している。
論文 参考訳(メタデータ) (2020-08-20T19:00:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。