論文の概要: Stable Forgetting: Bounded Parameter-Efficient Unlearning in LLMs
- arxiv url: http://arxiv.org/abs/2509.24166v1
- Date: Mon, 29 Sep 2025 01:30:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.674483
- Title: Stable Forgetting: Bounded Parameter-Efficient Unlearning in LLMs
- Title(参考訳): 安定な予測: LLMにおける境界パラメータ効率の学習
- Authors: Arpit Garg, Hemanth Saratchandran, Ravi Garg, Simon Lucey,
- Abstract要約: 我々は,大規模な言語モデル (LLM) のフィードフォワード層において,左折集合の上昇がいかに最適化を不安定化させるかを説明する理論的枠組みを提供する。
本研究では, パラメータ効率のよい手法である境界境界アンラーニングを提案し, 適応子に有界関数を適用することにより微調整を安定化する。
提案手法は,LLMにおける非学習のための理論的基盤と実践的拡張性を備えた枠組みを確立するとともに,保持状態を維持しながら忘れることの大幅な改善を実現している。
- 参考スコア(独自算出の注目度): 30.089412595436585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine unlearning in large language models (LLMs) is essential for privacy and safety; however, existing approaches remain unstable and unreliable. A widely used strategy, the gradient difference method, applies gradient descent on retained data while performing gradient ascent on forget data, the data whose influence should be removed. However, when combined with cross-entropy loss, this procedure causes unbounded growth of weights and gradients, leading to training instability and degrading both forgetting and retention. We provide a theoretical framework that explains this failure, explicitly showing how ascent on the forget set destabilizes optimization in the feedforward MLP layers of LLMs. Guided by this insight, we propose Bounded Parameter-Efficient Unlearning, a parameter-efficient approach that stabilizes LoRA-based fine-tuning by applying bounded functions to MLP adapters. This simple modification controls the weight dynamics during ascent, enabling the gradient difference method to converge reliably. Across the TOFU, TDEC, and MUSE benchmarks, and across architectures and scales from 125M to 8B parameters, our method achieves substantial improvements in forgetting while preserving retention, establishing a novel theoretically grounded and practically scalable framework for unlearning in LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)における機械学習は、プライバシと安全性に不可欠であるが、既存のアプローチは不安定で信頼性の低いままである。
広く使われている戦略である勾配差分法は、保持データに勾配降下を適用し、忘れデータに勾配上昇を行い、その影響を除去すべきである。
しかし、クロスエントロピー損失と組み合わせると、この手順はウェイトと勾配の非有界な成長を引き起こし、トレーニングの不安定性と、忘れることと保持の双方を劣化させる。
我々は、この失敗を説明する理論的枠組みを提供し、LLMのフィードフォワードMLP層において、ドナーセットの上昇がいかに最適化を不安定にするかを明確に示している。
この知見に導かれて,MLPアダプタに有界関数を適用することにより,LoRAに基づく微調整を安定化するパラメータ効率の高い手法である境界パラメータ効率アンラーニングを提案する。
この単純な修正は、上昇中のウェイトダイナミクスを制御し、勾配差法を確実に収束させることができる。
提案手法は,TOFU,TDEC,MUSEベンチマーク,アーキテクチャとスケールを125Mから8Bのパラメータで比較し,留置期間を保ちながら忘れることを大幅に改善し,LLMにおける非学習のための理論的基盤と実践的スケーラブルなフレームワークを確立した。
関連論文リスト
- Non-Linear Trajectory Modeling for Multi-Step Gradient Inversion Attacks in Federated Learning [16.19043018432204]
グラディエント・インバージョン・アタック(GIA)に対する非線形パラメトリック・トラジェクトリ・モデリングを導入する最初の方法であるNL-SME(Non-Linear Surrogate Model Extension)を提案する。
提案手法は,SGDの曲線特性を制御点から捉えた学習可能な2次B'ezier曲線に置き換え,正規化とdvecスケーリング機構を併用して表現性を向上する。
論文 参考訳(メタデータ) (2025-09-26T09:04:25Z) - LLM Unlearning using Gradient Ratio-Based Influence Estimation and Noise Injection [0.0]
既存の経験的手法は、ローカライゼーションが不十分なため、不完全な忘れ物や意図しない無関係な知識の劣化をもたらすことが多い。
GRINは、忘れデータの記憶に最も寄与するパラメータを特定するための、勾配比に基づく新しい指標を導入した。
そして、微調整の前にこれらのパラメータに選択的ノイズ注入を行い、モデルユーティリティを維持しながら学習性能を向上させる。
論文 参考訳(メタデータ) (2025-08-08T17:15:32Z) - Constrained Entropic Unlearning: A Primal-Dual Framework for Large Language Models [7.566515311806724]
大規模言語モデル(LLM)が現実の環境でデプロイされるようになると、機密性、時代遅れ、あるいはプロプライエタリな情報を漏らさなくてはならなくなる。
既存の未学習の手法は、忘れと保持を規則化されたトレードオフとして定式化し、両方の目的を1つのスカラー化された損失に組み合わせる。
制約付き最適化問題として,LLMアンラーニングの新たな定式化を提案する。
論文 参考訳(メタデータ) (2025-06-05T17:55:23Z) - Scale-Distribution Decoupling: Enabling Stable and Effective Training of Large Language Models [21.16132396642158]
訓練安定性は、大規模言語モデル(LLM)の事前学習における永続的な課題である
完全連結層における重み行列のスケールと分布を明示的に分離し,トレーニングを安定させる手法として,SDD(Scale-Distribution Decoupling)を提案する。
論文 参考訳(メタデータ) (2025-02-21T14:49:34Z) - Large Continual Instruction Assistant [59.585544987096974]
CIT(Continuous Instruction Tuning)は、大規模モデルにデータによる人間の意図データに従うよう指示するために用いられる。
既存の更新勾配は、CITプロセス中に前のデータセットのパフォーマンスを著しく損なうことになる。
本稿では,この課題に対処する汎用的な連続的命令チューニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-08T11:24:59Z) - SHERL: Synthesizing High Accuracy and Efficient Memory for Resource-Limited Transfer Learning [63.93193829913252]
本稿では,リソース制限シナリオに対するSHERLと呼ばれる革新的なMETL戦略を提案する。
初期経路では、中間出力は反冗長動作によって統合される。
遅延ルートでは、最小限の遅延事前トレーニングされたレイヤを利用することで、メモリオーバーヘッドのピーク需要を軽減できる。
論文 参考訳(メタデータ) (2024-07-10T10:22:35Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。