論文の概要: Position: Privacy Is Not Just Memorization!
- arxiv url: http://arxiv.org/abs/2510.01645v1
- Date: Thu, 02 Oct 2025 04:02:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.979525
- Title: Position: Privacy Is Not Just Memorization!
- Title(参考訳): プライバシーは単なる記憶ではない!
- Authors: Niloofar Mireshghallah, Tianshi Li,
- Abstract要約: このポジションペーパーでは、Large Language Modelsのプライバシの展望は、データ抽出のトレーニングをはるかに超えている、と論じている。
我々は、データ収集からデプロイメントまで、LCMライフサイクル全体にわたるプライバシーリスクの包括的分類を提示する。
私たちは、研究コミュニティがLLMプライバシにどのようにアプローチするかを根本的に変えて、現在の技術的なソリューションの焦点を狭くすることを求めます。
- 参考スコア(独自算出の注目度): 10.200402835229552
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The discourse on privacy risks in Large Language Models (LLMs) has disproportionately focused on verbatim memorization of training data, while a constellation of more immediate and scalable privacy threats remain underexplored. This position paper argues that the privacy landscape of LLM systems extends far beyond training data extraction, encompassing risks from data collection practices, inference-time context leakage, autonomous agent capabilities, and the democratization of surveillance through deep inference attacks. We present a comprehensive taxonomy of privacy risks across the LLM lifecycle -- from data collection through deployment -- and demonstrate through case studies how current privacy frameworks fail to address these multifaceted threats. Through a longitudinal analysis of 1,322 AI/ML privacy papers published at leading conferences over the past decade (2016--2025), we reveal that while memorization receives outsized attention in technical research, the most pressing privacy harms lie elsewhere, where current technical approaches offer little traction and viable paths forward remain unclear. We call for a fundamental shift in how the research community approaches LLM privacy, moving beyond the narrow focus of current technical solutions and embracing interdisciplinary approaches that address the sociotechnical nature of these emerging threats.
- Abstract(参考訳): LLM(Large Language Models)におけるプライバシーリスクに関する議論は、トレーニングデータの冗長な記憶に焦点を当てている。
このポジションペーパーでは、LLMシステムのプライバシの展望は、データ収集の実践、推論時のコンテキストリーク、自律エージェント能力、深層推論攻撃による監視の民主化といったリスクを含む、データ抽出のトレーニングを超えて拡張されていると論じている。
LLMライフサイクル全体にわたって、データ収集からデプロイメントまで、包括的なプライバシーリスクの分類を示し、現在のプライバシフレームワークがこれらの複数面の脅威にどう対処できないかをケーススタディを通じて実証します。
過去10年にわたる主要な会議(2016年~2025年)で公表された1,322件のAI/MLプライバシー論文の縦断的な分析を通じて、暗記が技術研究においてはるかに注目されている一方で、現在の技術的アプローチがほとんど牽引力を提供しておらず、将来的な道のりが不明確であることを明らかにする。
我々は、研究コミュニティがLLMプライバシにどのようにアプローチするかを根本的に変え、現在の技術的ソリューションの狭い焦点を超えて、これらの新興脅威の社会技術的性質に対処する学際的アプローチを受け入れることを求めている。
関連論文リスト
- Beyond Data Privacy: New Privacy Risks for Large Language Models [37.95953819924652]
大規模言語モデル(LLM)は、自然言語理解、推論、自律的な意思決定において顕著な進歩を遂げている。
これらの進歩には、重要なプライバシー上の懸念も伴っている。
LLMを広く使われているアプリケーションに統合し、その自律能力の武器化によって、新たなプライバシ脆弱性が生まれている。
論文 参考訳(メタデータ) (2025-09-16T09:46:09Z) - A Survey on Privacy Risks and Protection in Large Language Models [13.602836059584682]
大規模言語モデル(LLM)は多様なアプリケーションにますます統合され、プライバシーの懸念が高まっている。
この調査は、LCMに関連するプライバシーリスクの包括的概要を提供し、これらの課題を軽減するための現在のソリューションを調べます。
論文 参考訳(メタデータ) (2025-05-04T03:04:07Z) - Privacy-Preserving Large Language Models: Mechanisms, Applications, and Future Directions [0.0]
本調査では,大規模言語モデルに適したプライバシ保護機構の展望について考察する。
メンバーシップ推論やモデル逆転攻撃といった重要なプライバシー問題に対処する上での有効性を検討する。
本稿では、最先端のアプローチと今後のトレンドを合成することによって、堅牢でプライバシーに配慮した大規模言語モデルを構築するための基盤を提供する。
論文 参考訳(メタデータ) (2024-12-09T00:24:09Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Preserving Privacy in Large Language Models: A Survey on Current Threats and Solutions [12.451936012379319]
大規模言語モデル(LLM)は、人工知能の大幅な進歩を表し、様々な領域にまたがる応用を見つける。
トレーニングのための大規模なインターネットソースデータセットへの依存は、注目すべきプライバシー問題を引き起こす。
特定のアプリケーション固有のシナリオでは、これらのモデルをプライベートデータで微調整する必要があります。
論文 参考訳(メタデータ) (2024-08-10T05:41:19Z) - Privacy in Large Language Models: Attacks, Defenses and Future Directions [84.73301039987128]
大規模言語モデル(LLM)を対象とした現在のプライバシ攻撃を分析し、敵の想定能力に応じて分類する。
本稿では、これらのプライバシー攻撃に対抗するために開発された防衛戦略について概説する。
論文 参考訳(メタデータ) (2023-10-16T13:23:54Z) - Identifying and Mitigating Privacy Risks Stemming from Language Models: A Survey [43.063650238194384]
大規模言語モデル(LLM)は,近年,大規模化と広範囲なトレーニングデータによるパフォーマンス向上を図っている。
機械学習モデルのトレーニングデータ記憶は、特にLLMに関して、モデルサイズに合わせてスケールする。
記憶されたテキストシーケンスは、LSMから直接リークされる可能性があり、データのプライバシに深刻な脅威をもたらす。
論文 参考訳(メタデータ) (2023-09-27T15:15:23Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。