論文の概要: BLUR: A Bi-Level Optimization Approach for LLM Unlearning
- arxiv url: http://arxiv.org/abs/2506.08164v1
- Date: Mon, 09 Jun 2025 19:23:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:40.553771
- Title: BLUR: A Bi-Level Optimization Approach for LLM Unlearning
- Title(参考訳): BLUR:LLMアンラーニングのための双方向最適化アプローチ
- Authors: Hadi Reisizadeh, Jinghan Jia, Zhiqi Bu, Bhanukiran Vinzamuri, Anil Ramakrishna, Kai-Wei Chang, Volkan Cevher, Sijia Liu, Mingyi Hong,
- Abstract要約: 未学習問題の階層構造をモデル化することが重要であると論じる。
本稿では,より優れた性能を実現する新しいアルゴリズムであるBi-Level UnleaRning(textttBLUR)を提案する。
- 参考スコア(独自算出の注目度): 105.98410883830596
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Enabling large language models (LLMs) to unlearn knowledge and capabilities acquired during training has proven vital for ensuring compliance with data regulations and promoting ethical practices in generative AI. Although there are growing interests in developing various unlearning algorithms, it remains unclear how to best formulate the unlearning problem. The most popular formulation uses a weighted sum of forget and retain loss, but it often leads to performance degradation due to the inherent trade-off between forget and retain losses. In this work, we argue that it is important to model the hierarchical structure of the unlearning problem, where the forget problem (which \textit{unlearns} certain knowledge and/or capabilities) takes priority over the retain problem (which preserves model utility). This hierarchical structure naturally leads to a bi-level optimization formulation where the lower-level objective focuses on minimizing the forget loss, while the upper-level objective aims to maintain the model's utility. Based on this new formulation, we propose a novel algorithm, termed Bi-Level UnleaRning (\texttt{BLUR}), which not only possesses strong theoretical guarantees but more importantly, delivers superior performance. In particular, our extensive experiments demonstrate that \texttt{BLUR} consistently outperforms all the state-of-the-art algorithms across various unlearning tasks, models, and metrics. Codes are available at https://github.com/OptimAI-Lab/BLURLLMUnlearning.
- Abstract(参考訳): 大規模言語モデル(LLM)をトレーニング中に獲得した知識と能力の解放に活用することは、データ規制の遵守を確実にし、生成的AIにおける倫理的プラクティスを促進する上で不可欠であることが証明されている。
様々な未学習アルゴリズムの開発には関心が高まりつつあるが、その未学習問題をいかに最適に定式化するかはいまだ不明である。
最も一般的な定式化は、忘れと損失の重み付けの合計を用いるが、しばしば、忘れと損失の間の本質的にのトレードオフによってパフォーマンスが低下する。
本論では,学習課題の階層構造をモデル化することが重要であると論じる。そこでは,学習課題(知識と/または能力)が保持問題(モデルユーティリティを保存する)よりも優先される。
この階層構造は自然に二段階最適化の定式化につながり、下層の目的は忘れ損失を最小限に抑えることであり、上層層はモデルの実用性を維持することを目的としている。
この新定式化に基づき,理論的保証が強いだけでなく,性能も優れているBi-Level UnleaRning(\texttt{BLUR})というアルゴリズムを提案する。
特に、我々の広範な実験では、‘texttt{BLUR} は、さまざまな未学習タスク、モデル、メトリクスにわたって、最先端のアルゴリズムを一貫して上回っている。
コードはhttps://github.com/OptimAI-Lab/BLURLLMUnlearningで公開されている。
関連論文リスト
- UNO: Unlearning via Orthogonalization in Generative models [0.0]
我々のアルゴリズムは、元のモデルの忠実さを維持しながらデータを忘れることができることを示す。
MNISTとCelebAデータを用いて、我々のアルゴリズムが前者よりもはるかに高速な未学習時間を達成することを示す。
論文 参考訳(メタデータ) (2025-06-05T07:37:02Z) - GUARD: Generation-time LLM Unlearning via Adaptive Restriction and Detection [36.38245533018162]
大規模言語モデル(LLM)は、多様なドメインにまたがる膨大な知識を記憶する強力な能力を示している。
既存の未学習の取り組みは、通常、モデルを忘れデータ、データ保持、キャリブレーションモデルといったリソースで微調整する。
本稿では,LLM生成時の動的アンラーニングを実現するフレームワークであるAdaptive Restriction and Detection (GUARD) による生成時アンラーニングを提案する。
論文 参考訳(メタデータ) (2025-05-19T16:26:58Z) - ReLearn: Unlearning via Learning for Large Language Models [64.2802606302194]
本研究では、効果的なアンラーニングのためのデータ拡張および微調整パイプラインであるReLearnを提案する。
このフレームワークでは、知識レベルの保存を測定するために、知識獲得率(KFR)と知識保持率(KRR)を導入している。
実験の結果,ReLearnは高品質な出力を保ちながら,目標とするリセットを実現することができた。
論文 参考訳(メタデータ) (2025-02-16T16:31:00Z) - Towards Robust and Parameter-Efficient Knowledge Unlearning for LLMs [25.91643745340183]
大規模言語モデル(LLM)は、大量のテキストコーパスの事前学習を通じて、強い推論と記憶能力を示す。
これはプライバシーと著作権侵害のリスクを生じさせ、効率的な機械学習手法の必要性を強調している。
LLMの堅牢かつ効率的なアンラーニングを可能にする新しいフレームワークであるLoKUを提案する。
論文 参考訳(メタデータ) (2024-08-13T04:18:32Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Adversarial Auto-Augment with Label Preservation: A Representation
Learning Principle Guided Approach [95.74102207187545]
本研究では,事前自由な自律的データ拡張の目的が表現学習の原則から導出可能であることを示す。
そこで我々は,既存の手法にシームレスに最適化し,シームレスに統合できる目的に対して,実用的なサロゲートを提案する。
論文 参考訳(メタデータ) (2022-11-02T02:02:51Z) - Communication-Efficient Robust Federated Learning with Noisy Labels [144.31995882209932]
フェデレーテッド・ラーニング(FL)は、分散した位置データの上で、将来性のあるプライバシ保護機械学習パラダイムである。
FLにおける雑音ラベルの効果を緩和する学習に基づく再重み付け手法を提案する。
提案手法は,複数の実世界のデータセットにおいて,各種ベースラインと比較して優れた性能を示した。
論文 参考訳(メタデータ) (2022-06-11T16:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。