論文の概要: Improving Unlearning with Model Updates Probably Aligned with Gradients
- arxiv url: http://arxiv.org/abs/2511.02435v1
- Date: Tue, 04 Nov 2025 10:07:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.890015
- Title: Improving Unlearning with Model Updates Probably Aligned with Gradients
- Title(参考訳): モデル更新によるアンラーニングの改善
- Authors: Virgile Dine, Teddy Furon, Charly Faure,
- Abstract要約: モデルのパラメータ更新方向として、実現可能な更新の概念を導入する。
実現可能なアップデートの設計は、マスキングに基づいており、更新する価値のあるモデルのパラメータを慎重に選択します。
このテクニックは、任意の一階近似アンラーニングメソッドにアドオンとしてプラグインすることができる。
- 参考スコア(独自算出の注目度): 18.695608729905544
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We formulate the machine unlearning problem as a general constrained optimization problem. It unifies the first-order methods from the approximate machine unlearning literature. This paper then introduces the concept of feasible updates as the model's parameter update directions that help with unlearning while not degrading the utility of the initial model. Our design of feasible updates is based on masking, \ie\ a careful selection of the model's parameters worth updating. It also takes into account the estimation noise of the gradients when processing each batch of data to offer a statistical guarantee to derive locally feasible updates. The technique can be plugged in, as an add-on, to any first-order approximate unlearning methods. Experiments with computer vision classifiers validate this approach.
- Abstract(参考訳): 一般的な制約付き最適化問題として、マシンアンラーニング問題を定式化する。
近似機械アンラーニング文学から一階法を統一する。
そこで本論文では,初期モデルの有用性を損なうことなく,未学習を支援するモデルパラメータ更新方向として,実現可能な更新の概念を紹介する。
実現可能なアップデートの設計は、更新する価値のあるモデルのパラメータを慎重に選択するマスキングに基づいています。
また、各バッチを処理する際の勾配の推定ノイズも考慮し、ローカルに実行可能な更新を導出するための統計的保証を提供する。
このテクニックは、任意の一階近似アンラーニングメソッドにアドオンとしてプラグインすることができる。
コンピュータビジョン分類器による実験は、このアプローチを検証する。
関連論文リスト
- Can Gradient Descent Simulate Prompting? [56.60154660021178]
勾配は新しい情報に対する条件付けの効果を更新する。
勾配降下訓練は、引き起こされたモデルパフォーマンスのいくつか(時には全て)を回復する。
長文モデリングのための新しい道のりを示唆する。
論文 参考訳(メタデータ) (2025-06-26T04:06:20Z) - Sharpness-Aware Parameter Selection for Machine Unlearning [6.397490580631141]
クレジットカード番号やパスワードなど、機密性の高い個人情報が誤って機械学習モデルのトレーニングに組み込まれており、その後削除する必要がある場合が多い。
この問題に対処するために、文献に様々な機械学習技術が提案されている。
提案手法のほとんどは、トレーニングされたモデルから個々のデータサンプルを除去するものである。
これらのタスクの既存の方法は、モデルパラメータの集合全体またはモデルの最後の層のみを更新することで、未学習タスクを行うが、未学習ターゲット機能に最も貢献するモデルパラメータのサブセットが存在することを示す。
論文 参考訳(メタデータ) (2025-04-08T19:41:07Z) - Bayesian Test-Time Adaptation for Vision-Language Models [51.93247610195295]
CLIPのような事前訓練された視覚言語モデルによるテスト時適応は、新しい、潜在的に配布外テストデータにモデルを適応させることを目的としている。
我々は、クラス埋め込みを継続的に更新して妥当性を適応させる新しいアプローチ、textbfBayesian textbfClass textbfAdaptation (BCA)を提案する。
論文 参考訳(メタデータ) (2025-03-12T10:42:11Z) - LoRA Unlearns More and Retains More (Student Abstract) [0.0]
PruneLoRAは、モデルに低ランクの更新を適用することで、大規模なパラメータ更新の必要性を減らす。
そこで我々はLoRAを利用してプルーンドモデルのパラメータのサブセットを選択的に修正し、計算コスト、メモリ要件を低減し、残りのクラスの性能を維持するモデルの能力を向上させる。
論文 参考訳(メタデータ) (2024-11-16T16:47:57Z) - Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - A Primal-Dual Subgradient Approachfor Fair Meta Learning [23.65344558042896]
ショットのメタ学習は、その高速適応能力と、未知のタスクへの精度の一般化で有名である。
そこで本研究では,ごく少数の例を用いて,公正な機械学習モデルのトレーニングを学習するPrimal-Dual Meta-learningフレームワーク,すなわちPDFMを提案する。
論文 参考訳(メタデータ) (2020-09-26T19:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。