論文の概要: Model Inversion Attacks on Llama 3: Extracting PII from Large Language Models
- arxiv url: http://arxiv.org/abs/2507.04478v1
- Date: Sun, 06 Jul 2025 17:24:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.200679
- Title: Model Inversion Attacks on Llama 3: Extracting PII from Large Language Models
- Title(参考訳): Llama 3におけるモデル反転攻撃:大規模言語モデルからPIIを抽出する
- Authors: Sathesh P. Sivashanmugam,
- Abstract要約: 大規模言語モデル(LLM)は自然言語処理を変革しているが、トレーニングデータを記憶する能力は、重大なプライバシーリスクをもたらす。
本稿ではメタによって開発された多言語LLMであるLlama 3.2モデルに対するモデル反転攻撃について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have transformed natural language processing, but their ability to memorize training data poses significant privacy risks. This paper investigates model inversion attacks on the Llama 3.2 model, a multilingual LLM developed by Meta. By querying the model with carefully crafted prompts, we demonstrate the extraction of personally identifiable information (PII) such as passwords, email addresses, and account numbers. Our findings highlight the vulnerability of even smaller LLMs to privacy attacks and underscore the need for robust defenses. We discuss potential mitigation strategies, including differential privacy and data sanitization, and call for further research into privacy-preserving machine learning techniques.
- Abstract(参考訳): 大規模言語モデル(LLM)は自然言語処理を変革しているが、トレーニングデータを記憶する能力は、重大なプライバシーリスクをもたらす。
本稿ではメタによって開発された多言語LLMであるLlama 3.2モデルに対するモデル反転攻撃について検討する。
そこで本研究では,パスワードやメールアドレス,アカウント番号などの個人識別情報(PII)の抽出について述べる。
我々の発見は、より小さなLSMのプライバシー攻撃に対する脆弱性を浮き彫りにして、堅牢な防御の必要性を浮き彫りにしている。
我々は、差分プライバシーとデータ衛生化を含む潜在的な緩和戦略について議論し、プライバシー保護機械学習技術に関するさらなる研究を求める。
関連論文リスト
- Private Memorization Editing: Turning Memorization into a Defense to Strengthen Data Privacy in Large Language Models [1.2874523233023452]
プライベートデータ漏洩防止のためのPME(Private Memorization Editing)を提案する。
我々は、記憶されたPIIを検出し、トレーニングデータのモデル知識を編集することで、PIIの記憶を緩和する。
PMEは、多くの構成においてリークしたPIIの数を効果的に減らすことができ、場合によってはプライバシー攻撃の精度をゼロにすることもある。
論文 参考訳(メタデータ) (2025-06-09T17:57:43Z) - Tokens for Learning, Tokens for Unlearning: Mitigating Membership Inference Attacks in Large Language Models via Dual-Purpose Training [13.680205342714412]
大規模言語モデル(LLM)は、現代の自然言語処理のバックボーンとなっているが、センシティブなトレーニングデータの漏洩に関するプライバシー上の懸念を生じさせている。
本稿では,トークン固有の特徴を活用して,言語モデルのトレーニングデータを保護するための,軽量かつ効果的な経験的プライバシ保護手法である methodname を提案する。
論文 参考訳(メタデータ) (2025-02-27T03:37:45Z) - Evaluating LLM-based Personal Information Extraction and Countermeasures [63.91918057570824]
大規模言語モデル(LLM)に基づく個人情報抽出をベンチマークすることができる。
LLMは攻撃者によって誤用され、個人プロファイルから様々な個人情報を正確に抽出する。
プロンプトインジェクションは強力なLDMベースの攻撃に対して防御し、攻撃をより効果的でない従来の攻撃に還元する。
論文 参考訳(メタデータ) (2024-08-14T04:49:30Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
機密情報を含む匿名化は、幅広いアプリケーションにとって不可欠である。
既存の技術は、大規模言語モデルの再識別能力の新たな課題に直面している。
本稿では,プライバシ評価器,ユーティリティ評価器,最適化コンポーネントの3つの重要なコンポーネントで構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。