論文の概要: Rotation Control Unlearning: Quantifying and Controlling Continuous Unlearning for LLM with The Cognitive Rotation Space
- arxiv url: http://arxiv.org/abs/2509.25743v1
- Date: Tue, 30 Sep 2025 03:59:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.418479
- Title: Rotation Control Unlearning: Quantifying and Controlling Continuous Unlearning for LLM with The Cognitive Rotation Space
- Title(参考訳): 回転制御学習:認知回転空間を用いたLLMの連続学習の定量化と制御
- Authors: Xiang Zhang, Kun Wei, Xu Yang, Chenghao Xu, Su Yan, Cheng Deng,
- Abstract要約: 本研究では,学習継続過程における学習度を定量化し,制御する,回転制御アンラーニング(RCU)と呼ばれる新しい手法を提案する。
歪対称損失は、回転角の変化が連続的未学習過程をシミュレートできる認知回転空間の存在を構築するように設計されている。
複数のデータセットに対する実験により、保持されたデータセットを持たないメソッドがSOTA性能を達成することを確認した。
- 参考スコア(独自算出の注目度): 66.51378598755933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Large Language Models (LLMs) become increasingly prevalent, their security vulnerabilities have already drawn attention. Machine unlearning is introduced to seek to mitigate these risks by removing the influence of undesirable data. However, existing methods not only rely on the retained dataset to preserve model utility, but also suffer from cumulative catastrophic utility loss under continuous unlearning requests. To solve this dilemma, we propose a novel method, called Rotation Control Unlearning (RCU), which leverages the rotational salience weight of RCU to quantify and control the unlearning degree in the continuous unlearning process. The skew symmetric loss is designed to construct the existence of the cognitive rotation space, where the changes of rotational angle can simulate the continuous unlearning process. Furthermore, we design an orthogonal rotation axes regularization to enforce mutually perpendicular rotation directions for continuous unlearning requests, effectively minimizing interference and addressing cumulative catastrophic utility loss. Experiments on multiple datasets confirm that our method without retained dataset achieves SOTA performance.
- Abstract(参考訳): 大きな言語モデル(LLM)が普及するにつれて、セキュリティ上の脆弱性はすでに注目を集めている。
マシン・アンラーニングは、望ましくないデータの影響を取り除き、これらのリスクを軽減するために導入される。
しかし、既存の手法はモデルユーティリティを保存するために保持されたデータセットに依存するだけでなく、継続的な未学習要求の下で累積的な壊滅的なユーティリティ損失に悩まされている。
このジレンマを解決するために,回転制御アンラーニング(RCU:Rotation Control Unlearning)と呼ばれる新しい手法を提案する。
歪対称損失は、回転角の変化が連続的未学習過程をシミュレートできる認知回転空間の存在を構築するように設計されている。
さらに直交回転軸の正則化を設計し、連続的な未学習要求に対して相互垂直回転方向を強制し、干渉を効果的に最小化し、累積破滅的効用損失に対処する。
複数のデータセットに対する実験により、保持されたデータセットを持たないメソッドがSOTA性能を達成することを確認した。
関連論文リスト
- Data-Driven Exploration for a Class of Continuous-Time Indefinite Linear--Quadratic Reinforcement Learning Problems [6.859965454961918]
本研究では,LQ制御問題に対する強化学習について検討する。
本稿では, モデルフリーでデータ駆動型探索機構を提案し, 批判者によるエントロピー正規化を適応的に調整する。
本手法は,LQ問題のクラスにおいて,最もよく知られたモデルフリーな結果と一致するサブ線形後悔境界を実現する。
論文 参考訳(メタデータ) (2025-07-01T01:09:06Z) - Go Beyond Your Means: Unlearning with Per-Sample Gradient Orthogonalization [43.436621884831276]
機械学習は、モデルが訓練された後、問題のあるトレーニングデータの影響を取り除くことを目的としている。
既存の機械学習手法の多くは、未学習データ上の勾配上昇と、トレーニングデータを表す保持セット上の勾配降下とを慎重にバランスさせることで、この問題に対処している。
本稿では,未学習集合と保持集合との干渉を緩和する手法であるOrthoGradを提案する。
論文 参考訳(メタデータ) (2025-03-04T06:14:33Z) - Machine Unlearning via Null Space Calibration [23.668928015009087]
underlineNull underlineSpace underlineCalibration (UNSC) を用いてマシンアンダーラインUnlearningを導入する。
我々のアプローチは、未学習のプロセスを、残りのサンプルに合わせた特定のヌル空間に収束させることに重点を置いている。
論文 参考訳(メタデータ) (2024-04-21T09:09:21Z) - UNDIAL: Self-Distillation with Adjusted Logits for Robust Unlearning in Large Language Models [12.45822383965784]
本稿では,UnDIAL(Unlearning via Self-Distillation on Adjusted Logits)を紹介する。
本手法では, 自己蒸留を利用してロジットを調整し, ターゲットトークンの影響を選択的に低減する。
論文 参考訳(メタデータ) (2024-02-15T16:21:14Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Action-Quantized Offline Reinforcement Learning for Robotic Skill
Learning [68.16998247593209]
オフライン強化学習(RL)パラダイムは、静的な行動データセットを、データを収集したポリシーよりも優れたパフォーマンスのポリシーに変換するためのレシピを提供する。
本稿では,アクション量子化のための適応型スキームを提案する。
IQL,CQL,BRACといった最先端のオフラインRL手法が,提案手法と組み合わせることで,ベンチマークのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T06:07:10Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Unsupervised MR Motion Artifact Deep Learning using Outlier-Rejecting
Bootstrap Aggregation [37.41561581618164]
そこで本研究では,外乱除去型ブートストラップサブサンプリングとアグリゲーションによる教師なし深層学習手法を提案する。
トレーニングステップでは、アーティファクトフリーの画像のみを必要とするため、ペアデータを必要としない。
本手法は, 模擬動作からのアーチファクト修正や, TSMからのリアルタイム動作に有効であることを確認した。
論文 参考訳(メタデータ) (2020-11-12T12:10:58Z) - SelfVoxeLO: Self-supervised LiDAR Odometry with Voxel-based Deep Neural
Networks [81.64530401885476]
本稿では,これら2つの課題に対処するために,自己教師型LiDARオドメトリー法(SelfVoxeLO)を提案する。
具体的には、生のLiDARデータを直接処理する3D畳み込みネットワークを提案し、3D幾何パターンをよりよく符号化する特徴を抽出する。
我々は,KITTIとApollo-SouthBayという2つの大規模データセット上での手法の性能を評価する。
論文 参考訳(メタデータ) (2020-10-19T09:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。