論文の概要: Unlearning in LLMs: Methods, Evaluation, and Open Challenges
- arxiv url: http://arxiv.org/abs/2601.13264v1
- Date: Mon, 19 Jan 2026 17:58:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.000814
- Title: Unlearning in LLMs: Methods, Evaluation, and Open Challenges
- Title(参考訳): LLMにおけるアンラーニング:方法、評価、オープンチャレンジ
- Authors: Tyler Lizzo, Larry Heck,
- Abstract要約: 機械学習は、完全なリトレーニングなしでトレーニングされたモデルから知識やデータを選択的に取り除くための、有望なパラダイムとして登場した。
本稿は,大規模言語モデルにおける信頼性の高い非学習技術開発のためのロードマップとして機能することを目的としている。
- 参考スコア(独自算出の注目度): 7.530890774798437
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have achieved remarkable success across natural language processing tasks, yet their widespread deployment raises pressing concerns around privacy, copyright, security, and bias. Machine unlearning has emerged as a promising paradigm for selectively removing knowledge or data from trained models without full retraining. In this survey, we provide a structured overview of unlearning methods for LLMs, categorizing existing approaches into data-centric, parameter-centric, architecture-centric, hybrid, and other strategies. We also review the evaluation ecosystem, including benchmarks, metrics, and datasets designed to measure forgetting effectiveness, knowledge retention, and robustness. Finally, we outline key challenges and open problems, such as scalable efficiency, formal guarantees, cross-language and multimodal unlearning, and robustness against adversarial relearning. By synthesizing current progress and highlighting open directions, this paper aims to serve as a roadmap for developing reliable and responsible unlearning techniques in large language models.
- Abstract(参考訳): 大規模言語モデル(LLM)は自然言語処理タスク全体で大きな成功を収めているが、その普及によってプライバシ、著作権、セキュリティ、バイアスに関する懸念が高まっている。
機械学習は、完全なリトレーニングなしでトレーニングされたモデルから知識やデータを選択的に取り除くための、有望なパラダイムとして登場した。
本稿では,従来のアプローチをデータ中心,パラメータ中心,アーキテクチャ中心,ハイブリッド,その他の戦略に分類する。
また、忘れることの有効性、知識の保持、堅牢性を測定するために設計されたベンチマーク、メトリクス、データセットを含む評価エコシステムについてもレビューします。
最後に、スケーラブルな効率性、フォーマルな保証、クロスランゲージとマルチモーダルなアンラーニング、敵の再学習に対する堅牢性など、主要な課題とオープンな問題を概説する。
本稿では,現状の進歩を合成し,オープンな方向性を強調することによって,大規模言語モデルにおける信頼性と責任を負う未学習技術開発のためのロードマップとして機能することを目的とする。
関連論文リスト
- A Survey on Unlearning in Large Language Models [18.262778815699345]
大規模言語モデル(LLM)は自然言語処理に革命をもたらしたが、大規模なコーパスでのトレーニングは重大なリスクをもたらす。
これらの問題を緩和し、「忘れられる権利」のような法的・倫理的な基準に合わせるために、機械の非学習は重要なテクニックとして現れてきた。
この調査は、2021年以降に出版されたLLMアンラーニングに関する180以上の論文の体系的なレビューを提供する。
論文 参考訳(メタデータ) (2025-10-29T02:34:17Z) - LLM Unlearning Under the Microscope: A Full-Stack View on Methods and Metrics [10.638045151201084]
本稿では,近年のステートフル・アンラーニング法12の原則的分類について述べる。
未学習効果(UE)、実用性維持(UT)、堅牢性(Rob)の評価を再考する。
分析の結果,Multiple-choice question (MCQ) の精度に支配される現在の評価は,狭い視点しか示さないことがわかった。
論文 参考訳(メタデータ) (2025-10-08T23:47:05Z) - OpenUnlearning: Accelerating LLM Unlearning via Unified Benchmarking of Methods and Metrics [82.0813150432867]
我々は,大規模言語モデル(LLM)のアンラーニング手法とメトリクスをベンチマークするための標準フレームワークであるOpenUnlearningを紹介する。
OpenUnlearningは、13のアンラーニングアルゴリズムと16のさまざまな評価を3つの主要なベンチマークで統合する。
また、多様なアンラーニング手法をベンチマークし、広範囲な評価スイートとの比較分析を行う。
論文 参考訳(メタデータ) (2025-06-14T20:16:37Z) - Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [52.40798352740857]
3つのコアコンポーネントで構成されるICU(Iterative Contrastive Unlearning)フレームワークを紹介する。
知識未学習誘導モジュールは、未学習の損失を使用して、特定の知識を除去するためにターゲットとする。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を保持する。
イテレーティブ・アンラーニング・リファインメントモジュールは、進行中の評価と更新を通じて、アンラーニングプロセスを動的に調整する。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - Recent Advances in Federated Learning Driven Large Language Models: A Survey on Architecture, Performance, and Security [24.969739515876515]
Federated Learning(FL)は、データプライバシを保持し、通信オーバーヘッドを最小限に抑えながら、大規模言語モデル(LLM)を分散的にトレーニングするための有望なパラダイムを提供する。
我々は、摂動に基づく手法、モデル分解、漸進的再学習を含む、連合LLMにおける未学習を可能にする様々な戦略についてレビューする。
本調査では, 現実の展開に向けて, 安全で適応性があり, 高性能なLLMシステムの開発に向けた重要な研究方向を明らかにする。
論文 参考訳(メタデータ) (2024-06-14T08:40:58Z) - Rethinking Machine Unlearning for Large Language Models [85.92660644100582]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。