論文の概要: Towards Benchmarking Privacy Vulnerabilities in Selective Forgetting with Large Language Models
- arxiv url: http://arxiv.org/abs/2512.18035v1
- Date: Fri, 19 Dec 2025 20:04:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.161396
- Title: Towards Benchmarking Privacy Vulnerabilities in Selective Forgetting with Large Language Models
- Title(参考訳): 大規模言語モデルを用いた選択フォーミングにおけるプライバシ脆弱性のベンチマークに向けて
- Authors: Wei Qian, Chenxu Zhao, Yangyi Li, Mengdi Huai,
- Abstract要約: 選択的な忘れ(マシンアンラーニングとも呼ばれる)は、プライバシとデータ削除タスクの約束を示している。
その約束にもかかわらず、選択的な忘れ物はプライバシーの懸念を生じさせる。
プライバシの脆弱性を選択的に評価するための、最初の包括的なベンチマークを示す。
- 参考スコア(独自算出の注目度): 28.389198065125314
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid advancements in artificial intelligence (AI) have primarily focused on the process of learning from data to acquire knowledgeable learning systems. As these systems are increasingly deployed in critical areas, ensuring their privacy and alignment with human values is paramount. Recently, selective forgetting (also known as machine unlearning) has shown promise for privacy and data removal tasks, and has emerged as a transformative paradigm shift in the field of AI. It refers to the ability of a model to selectively erase the influence of previously seen data, which is especially important for compliance with modern data protection regulations and for aligning models with human values. Despite its promise, selective forgetting raises significant privacy concerns, especially when the data involved come from sensitive domains. While new unlearning-induced privacy attacks are continuously proposed, each is shown to outperform its predecessors using different experimental settings, which can lead to overly optimistic and potentially unfair assessments that may disproportionately favor one particular attack over the others. In this work, we present the first comprehensive benchmark for evaluating privacy vulnerabilities in selective forgetting. We extensively investigate privacy vulnerabilities of machine unlearning techniques and benchmark privacy leakage across a wide range of victim data, state-of-the-art unlearning privacy attacks, unlearning methods, and model architectures. We systematically evaluate and identify critical factors related to unlearning-induced privacy leakage. With our novel insights, we aim to provide a standardized tool for practitioners seeking to deploy customized unlearning applications with faithful privacy assessments.
- Abstract(参考訳): 人工知能(AI)の急速な進歩は、主にデータから学習し、知識のある学習システムを取得するプロセスに焦点を当てている。
これらのシステムはますます重要な領域に展開されているため、プライバシと人間の価値との整合性を確保することが最重要である。
近年、選択的忘れ(マシンアンラーニングとも呼ばれる)は、プライバシとデータ削除タスクの約束を示し、AI分野における変革的なパラダイムシフトとして現れている。
これは、現在のデータ保護規制の遵守や、モデルと人的価値の整合性において特に重要である、前述したデータの影響を選択的に消去するモデルの能力を指す。
その約束にもかかわらず、選択的な忘れは、特に機密性の高いドメインから来るデータにおいて、重要なプライバシー上の懸念を生じさせる。
新たな未学習によるプライバシ攻撃は継続的に提案されているが、それぞれ異なる実験的な設定で前者より優れており、過度に楽観的で不公平な評価につながる可能性がある。
本研究では,プライバシの脆弱性を選択的に評価するベンチマークを初めて提示する。
我々は、機械学習技術によるプライバシーの脆弱性を広範囲に調査し、幅広い犠牲者データ、最先端の未学習のプライバシー攻撃、未学習の方法、そしてアーキテクチャーをベンチマークする。
本研究では,未学習によるプライバシー漏洩に関連する重要な要因を体系的に評価し,同定する。
新たな洞察で、我々は、忠実なプライバシアセスメントを備えた、カスタマイズされていない未学習アプリケーションをデプロイしようとする実践者のための、標準化されたツールの提供を目指している。
関連論文リスト
- Differential Privacy in Machine Learning: From Symbolic AI to LLMs [49.1574468325115]
差別化プライバシは、プライバシーリスクを軽減するための正式なフレームワークを提供する。
単一のデータポイントの包含や除外がアルゴリズムの出力を著しく変更しないことを保証する。
論文 参考訳(メタデータ) (2025-06-13T11:30:35Z) - Privacy in Fine-tuning Large Language Models: Attacks, Defenses, and Future Directions [11.338466798715906]
細調整された大規模言語モデル(LLM)は、様々な領域で最先端のパフォーマンスを達成することができる。
本稿では、微調整LDMに関連するプライバシー問題に関する包括的調査を行う。
メンバーシップ推論、データ抽出、バックドア攻撃など、さまざまなプライバシ攻撃に対する脆弱性を強調します。
論文 参考訳(メタデータ) (2024-12-21T06:41:29Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - On the Privacy Effect of Data Enhancement via the Lens of Memorization [20.63044895680223]
我々は,記憶化という新たな視点からプライバシを調査することを提案する。
記憶のレンズを通して、以前デプロイされたMIAは、より高いプライバシーリスクを持つサンプルを特定する可能性が低いため、誤解を招く結果をもたらすことがわかった。
一般化ギャップとプライバシリークは, これまでの結果に比べて相関が低いことを示す。
論文 参考訳(メタデータ) (2022-08-17T13:02:17Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。