論文の概要: SoK: The Privacy Paradox of Large Language Models: Advancements, Privacy Risks, and Mitigation
- arxiv url: http://arxiv.org/abs/2506.12699v2
- Date: Thu, 19 Jun 2025 06:30:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 12:57:34.483007
- Title: SoK: The Privacy Paradox of Large Language Models: Advancements, Privacy Risks, and Mitigation
- Title(参考訳): SoK: 大規模言語モデルのプライバシパラドックス:進歩、プライバシリスク、緩和
- Authors: Yashothara Shanmugarasa, Ming Ding, M. A. P Chamikara, Thierry Rakotoarivelo,
- Abstract要約: 大型言語モデル(LLM)は、機械が顕著な精度で人間に似たテキストを生成することができる高度な人工知能システムである。
本稿では, LLMにおけるプライバシーの包括的分析を行い, 課題を4つの主要領域に分類する。
提案するプライバシ課題を対象として,既存の緩和メカニズムの有効性と限界を評価し,さらなる研究を行うための領域を特定する。
- 参考スコア(独自算出の注目度): 9.414685411687735
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language models (LLMs) are sophisticated artificial intelligence systems that enable machines to generate human-like text with remarkable precision. While LLMs offer significant technological progress, their development using vast amounts of user data scraped from the web and collected from extensive user interactions poses risks of sensitive information leakage. Most existing surveys focus on the privacy implications of the training data but tend to overlook privacy risks from user interactions and advanced LLM capabilities. This paper aims to fill that gap by providing a comprehensive analysis of privacy in LLMs, categorizing the challenges into four main areas: (i) privacy issues in LLM training data, (ii) privacy challenges associated with user prompts, (iii) privacy vulnerabilities in LLM-generated outputs, and (iv) privacy challenges involving LLM agents. We evaluate the effectiveness and limitations of existing mitigation mechanisms targeting these proposed privacy challenges and identify areas for further research.
- Abstract(参考訳): 大型言語モデル(LLM)は、機械が顕著な精度で人間に似たテキストを生成することができる高度な人工知能システムである。
LLMは大きな技術的進歩をもたらすが、Webから大量のユーザデータを取り除き、広範囲なユーザインタラクションから収集した開発は、機密情報漏洩のリスクを生じさせる。
既存の調査では、トレーニングデータのプライバシーへの影響に焦点が当てられているが、ユーザインタラクションや高度なLLM機能によるプライバシーリスクを無視する傾向にある。
本稿では, LLMにおけるプライバシーの包括的分析を提供し, 課題を4つの主要な領域に分類することで, そのギャップを埋めることを目的とする。
一 LLM トレーニングデータのプライバシー上の問題
(二)ユーザープロンプトに伴うプライバシー上の課題
三 LLM出力のプライバシー上の脆弱性及び
(4) LLMエージェントに関わるプライバシー上の課題。
提案するプライバシ課題を対象として,既存の緩和メカニズムの有効性と限界を評価し,さらなる研究を行うための領域を特定する。
関連論文リスト
- A Survey on Privacy Risks and Protection in Large Language Models [13.602836059584682]
大規模言語モデル(LLM)は多様なアプリケーションにますます統合され、プライバシーの懸念が高まっている。
この調査は、LCMに関連するプライバシーリスクの包括的概要を提供し、これらの課題を軽減するための現在のソリューションを調べます。
論文 参考訳(メタデータ) (2025-05-04T03:04:07Z) - Privacy in Fine-tuning Large Language Models: Attacks, Defenses, and Future Directions [11.338466798715906]
細調整された大規模言語モデル(LLM)は、様々な領域で最先端のパフォーマンスを達成することができる。
本稿では、微調整LDMに関連するプライバシー問題に関する包括的調査を行う。
メンバーシップ推論、データ抽出、バックドア攻撃など、さまざまなプライバシ攻撃に対する脆弱性を強調します。
論文 参考訳(メタデータ) (2024-12-21T06:41:29Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - LLM-PBE: Assessing Data Privacy in Large Language Models [111.58198436835036]
大規模言語モデル(LLM)は多くのドメインに不可欠なものとなり、データ管理、マイニング、分析におけるアプリケーションを大幅に進歩させた。
この問題の批判的な性質にもかかわらず、LLMにおけるデータプライバシのリスクを総合的に評価する文献は存在しない。
本稿では,LLMにおけるデータプライバシリスクの体系的評価を目的としたツールキットであるLLM-PBEを紹介する。
論文 参考訳(メタデータ) (2024-08-23T01:37:29Z) - Preserving Privacy in Large Language Models: A Survey on Current Threats and Solutions [12.451936012379319]
大規模言語モデル(LLM)は、人工知能の大幅な進歩を表し、様々な領域にまたがる応用を見つける。
トレーニングのための大規模なインターネットソースデータセットへの依存は、注目すべきプライバシー問題を引き起こす。
特定のアプリケーション固有のシナリオでは、これらのモデルをプライベートデータで微調整する必要があります。
論文 参考訳(メタデータ) (2024-08-10T05:41:19Z) - On Protecting the Data Privacy of Large Language Models (LLMs): A Survey [35.48984524483533]
LLM(Large Language Model)は、人間の言語を理解し、生成し、翻訳できる複雑な人工知能システムである。
LLMは大量のデータを処理して生成し、データプライバシを脅かす可能性がある。
論文 参考訳(メタデータ) (2024-03-08T08:47:48Z) - Privacy in Large Language Models: Attacks, Defenses and Future Directions [84.73301039987128]
大規模言語モデル(LLM)を対象とした現在のプライバシ攻撃を分析し、敵の想定能力に応じて分類する。
本稿では、これらのプライバシー攻撃に対抗するために開発された防衛戦略について概説する。
論文 参考訳(メタデータ) (2023-10-16T13:23:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。