論文の概要: Erasing CLIP Memories: Non-Destructive, Data-Free Zero-Shot class Unlearning in CLIP Models
- arxiv url: http://arxiv.org/abs/2512.14137v1
- Date: Tue, 16 Dec 2025 06:37:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.616571
- Title: Erasing CLIP Memories: Non-Destructive, Data-Free Zero-Shot class Unlearning in CLIP Models
- Title(参考訳): CLIPメモリの消去:CLIPモデルにおける非破壊的でデータフリーなゼロショットクラス学習
- Authors: Ashish Mishra, Tarun Kumar, Gyanaranjan Nayak, Arpit Shah, Suparna Bhattacharya, Martin Foltin,
- Abstract要約: マルチモーダルモデルにおける選択的アンラーニングのための新しいクローズドフォームアプローチを提案する。
提案手法はNullspaceプロジェクションを利用して最終プロジェクション層に埋め込まれたターゲットクラス情報を消去する。
実験の結果,部分的プロジェクションであっても,完全な未学習と有用な情報の保持のバランスがとれることがわかった。
- 参考スコア(独自算出の注目度): 4.820351122363815
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce a novel, closed-form approach for selective unlearning in multimodal models, specifically targeting pretrained models such as CLIP. Our method leverages nullspace projection to erase the target class information embedded in the final projection layer, without requiring any retraining or the use of images from the forget set. By computing an orthonormal basis for the subspace spanned by target text embeddings and projecting these directions, we dramatically reduce the alignment between image features and undesired classes. Unlike traditional unlearning techniques that rely on iterative fine-tuning and extensive data curation, our approach is both computationally efficient and surgically precise. This leads to a pronounced drop in zero-shot performance for the target classes while preserving the overall multimodal knowledge of the model. Our experiments demonstrate that even a partial projection can balance between complete unlearning and retaining useful information, addressing key challenges in model decontamination and privacy preservation.
- Abstract(参考訳): マルチモーダルモデルにおける選択的アンラーニングのための新しいクローズドフォームアプローチを導入し,特にCLIPのような事前学習モデルを対象としている。
提案手法では,Nullspaceプロジェクションを利用して最終プロジェクション層に埋め込まれたターゲットクラス情報を消去する。
対象のテキスト埋め込みによって区切られた部分空間の正規直交基底を計算し、これらの方向を投影することにより、画像特徴と望ましくないクラスとのアライメントを劇的に低減する。
反復的な微調整と広範なデータキュレーションに依存する従来の非学習技術とは異なり、我々のアプローチは計算効率が高く、外科的に正確である。
これにより、モデル全体のマルチモーダル知識を維持しながら、ターゲットクラスのゼロショットパフォーマンスが著しく低下する。
我々の実験は、部分的なプロジェクションでさえ、完全な未学習と有用な情報の保持のバランスを保ち、モデルの汚染とプライバシー保護における重要な課題に対処できることを示した。
関連論文リスト
- Selective, Controlled and Domain-Agnostic Unlearning in Pretrained CLIP: A Training- and Data-Free Approach [4.820351122363815]
現実世界のアプリケーションは、追加のデータや再トレーニングを必要とせずに、特定のオブジェクトクラスの削除(あるいは"アンラーニング")を要求することが多い。
本稿では,3つの異なるパラダイムを念頭に置いて,新たなトレーニングとデータフリーな学習フレームワークを提案する。
テキストプロンプトと合成視覚プロトタイプの相乗的統合によるマルチモーダルなヌル空間の活用により,残りの知識を保ちながら,不要なクラス情報を効率的に除去する。
論文 参考訳(メタデータ) (2025-12-16T05:54:13Z) - Model Collapse Is Not a Bug but a Feature in Machine Unlearning for LLMs [54.167494079321465]
LLMの現在のアンラーニング方法は、それらを微調整データに組み込むことで、削除しようとしているプライベート情報に基づいて最適化されている。
本研究では,未学習目標を学習対象に含まない新しい非学習手法-部分的モデル崩壊(PMC)を提案する。
論文 参考訳(メタデータ) (2025-07-06T03:08:49Z) - Targeted Forgetting of Image Subgroups in CLIP Models [30.78624907082701]
CLIPのようなファンデーションモデル(FM)は、様々なタスクで印象的なゼロショット性能を示している。
彼らはしばしば、ノイズの多いインターネットソースのデータセットから有害または望ましくない知識を継承する。
既存のモデルアンラーニングメソッドは、事前訓練されたデータセットへのアクセスに依存するか、あるいは粗い粒度のアンラーニングにフォーカスする。
過剰な鍛造を省きながら、対象とする知識を徐々に解き放つ新しい3段階アプローチを提案する。
論文 参考訳(メタデータ) (2025-06-03T17:50:03Z) - Zero-Shot Class Unlearning in CLIP with Synthetic Samples [0.0]
私たちは、画像テキストペアの巨大なデータセットに基づいてトレーニングされたデュアルビジョン言語モデルであるCLIP内でのアンラーニングに重点を置いています。
リプシッツ正則化をCLIPのマルチモーダル文脈に適用する。
我々の忘れる手順は反復的であり、合成された忘れ物セットの精度を追跡し、選択された閾値未満の精度で停止する。
論文 参考訳(メタデータ) (2024-07-10T09:16:14Z) - Partially Blinded Unlearning: Class Unlearning for Deep Networks a Bayesian Perspective [4.31734012105466]
マシン・アンラーニング(英: Machine Unlearning)とは、特定のデータセットやクラスに指定された情報を事前訓練されたモデルから選択的に破棄するプロセスである。
本研究では,事前学習した分類ネットワークから,特定の種類のデータに関連付けられた情報の目的的除去に適した手法を提案する。
本手法は,従来の最先端の未学習手法を超越し,優れた有効性を示す。
論文 参考訳(メタデータ) (2024-03-24T17:33:22Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - Retrieval-Enhanced Contrastive Vision-Text Models [61.783728119255365]
そこで本研究では,メモリから取得したクロスモーダルな情報を推論時に表現することで,その埋め込みを洗練できる視覚テキストモデルを提案する。
注目すべきことに、これは凍ったCLIPの上に軽量の単層核融合トランスを用いて行うことができる。
検索強化コントラスト訓練(RECO)がCLIPの性能を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-06-12T15:52:02Z) - No Token Left Behind: Explainability-Aided Image Classification and
Generation [79.4957965474334]
ここでは、CLIPが入力のすべての関連する意味的部分に焦点を当てることを保証するために、損失項を追加する新しい説明可能性に基づくアプローチを提案する。
本手法は, 追加訓練や微調整を伴わずに, 認識率の向上を図っている。
論文 参考訳(メタデータ) (2022-04-11T07:16:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。