論文の概要: Selective, Controlled and Domain-Agnostic Unlearning in Pretrained CLIP: A Training- and Data-Free Approach
- arxiv url: http://arxiv.org/abs/2512.14113v1
- Date: Tue, 16 Dec 2025 05:54:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.609049
- Title: Selective, Controlled and Domain-Agnostic Unlearning in Pretrained CLIP: A Training- and Data-Free Approach
- Title(参考訳): プレトレーニングCLIPにおける選択的・制御的・ドメインに依存しない非学習:訓練的・データ的アプローチ
- Authors: Ashish Mishra, Gyanaranjan Nayak, Tarun Kumar, Arpit Shah, Suparna Bhattacharya, Martin Foltin,
- Abstract要約: 現実世界のアプリケーションは、追加のデータや再トレーニングを必要とせずに、特定のオブジェクトクラスの削除(あるいは"アンラーニング")を要求することが多い。
本稿では,3つの異なるパラダイムを念頭に置いて,新たなトレーニングとデータフリーな学習フレームワークを提案する。
テキストプロンプトと合成視覚プロトタイプの相乗的統合によるマルチモーダルなヌル空間の活用により,残りの知識を保ちながら,不要なクラス情報を効率的に除去する。
- 参考スコア(独自算出の注目度): 4.820351122363815
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Pretrained models like CLIP have demonstrated impressive zero-shot classification capabilities across diverse visual domains, spanning natural images, artistic renderings, and abstract representations. However, real-world applications often demand the removal (or "unlearning") of specific object classes without requiring additional data or retraining, or affecting the model's performance on unrelated tasks. In this paper, we propose a novel training- and data-free unlearning framework that enables three distinct forgetting paradigms: (1) global unlearning of selected objects across all domains, (2) domain-specific knowledge removal (e.g., eliminating sketch representations while preserving photo recognition), and (3) complete unlearning in selective domains. By leveraging a multimodal nullspace through synergistic integration of text prompts and synthesized visual prototypes derived from CLIP's joint embedding space, our method efficiently removes undesired class information while preserving the remaining knowledge. This approach overcomes the limitations of existing retraining-based methods and offers a flexible and computationally efficient solution for controlled model forgetting.
- Abstract(参考訳): CLIPのような事前訓練されたモデルは、さまざまな視覚領域にまたがる印象的なゼロショット分類機能を示しており、自然画像、芸術的レンダリング、抽象表現にまたがっている。
しかし、現実世界のアプリケーションは、追加のデータや再トレーニングを必要とせず、あるいは無関係なタスクでモデルのパフォーマンスに影響を与えることなく、特定のオブジェクトクラスの削除(あるいは"アンラーニング")を要求することが多い。
本稿では,(1)全領域にわたる選択対象のグローバルな未学習,(2)ドメイン固有の知識の除去(例えば,写真認識を保ったままのスケッチ表現の除去),(3)選択領域における完全未学習の3つのパラダイムを,新たなトレーニングおよびデータフリー未学習フレームワークを提案する。
テキストプロンプトとCLIPの結合埋め込み空間から合成した視覚プロトタイプの相乗的統合によるマルチモーダルなヌル空間の活用により,残りの知識を保ちながら,不要なクラス情報を効率的に除去する。
このアプローチは、既存のリトレーニングベースの手法の限界を克服し、制御されたモデルを忘れるためのフレキシブルで効率的なソリューションを提供する。
関連論文リスト
- Erasing CLIP Memories: Non-Destructive, Data-Free Zero-Shot class Unlearning in CLIP Models [4.820351122363815]
マルチモーダルモデルにおける選択的アンラーニングのための新しいクローズドフォームアプローチを提案する。
提案手法はNullspaceプロジェクションを利用して最終プロジェクション層に埋め込まれたターゲットクラス情報を消去する。
実験の結果,部分的プロジェクションであっても,完全な未学習と有用な情報の保持のバランスがとれることがわかった。
論文 参考訳(メタデータ) (2025-12-16T06:37:41Z) - Federated Graph Unlearning [23.00839112398916]
データプライバシの要求は、Federated Graph Learningのようなフレームワークの開発につながっている。
提案するフレームワークでは,特定の未学習要求に合わせた分岐戦略を採用している。
このフレームワークは、クライアントとメタアンラーニングの両方のシナリオで、モデルの予測精度を大幅に改善する。
論文 参考訳(メタデータ) (2025-08-04T14:57:03Z) - Targeted Forgetting of Image Subgroups in CLIP Models [30.78624907082701]
CLIPのようなファンデーションモデル(FM)は、様々なタスクで印象的なゼロショット性能を示している。
彼らはしばしば、ノイズの多いインターネットソースのデータセットから有害または望ましくない知識を継承する。
既存のモデルアンラーニングメソッドは、事前訓練されたデータセットへのアクセスに依存するか、あるいは粗い粒度のアンラーニングにフォーカスする。
過剰な鍛造を省きながら、対象とする知識を徐々に解き放つ新しい3段階アプローチを提案する。
論文 参考訳(メタデータ) (2025-06-03T17:50:03Z) - GRAIL: Gradient-Based Adaptive Unlearning for Privacy and Copyright in LLMs [26.13653211674955]
広範囲なデータセットでトレーニングされた大規模言語モデル(LLM)は、しばしばセンシティブな情報を学ぶ。
望ましくない情報を除去するために、スクラッチからモデル全体をリトレーニングすることは、費用がかかることと実用的でないことの両方である。
本稿では,GRAIL(AdaptIve unLearning)を提案する。
論文 参考訳(メタデータ) (2025-04-17T06:16:32Z) - Prompting Forgetting: Unlearning in GANs via Textual Guidance [4.3562145620596215]
本稿では,テキストプロンプトのみを用いて,事前学習されたGANから概念を選択的に解放する新しいフレームワークであるText-to-Unlearnを提案する。
我々のアプローチは、追加のデータセットや教師付き微調整を必要とせずに、未学習プロセスをガイドする。
私たちの知る限り、Text-to-Unlearnは、GANのための最初のクロスプラットフォームなアンラーニングフレームワークです。
論文 参考訳(メタデータ) (2025-04-01T22:18:40Z) - CLIPErase: Efficient Unlearning of Visual-Textual Associations in CLIP [57.49519639951552]
CLIPEraseは視覚的・テキスト的関連を選択的に忘れる新しいアプローチである。
CIFAR-100とFlickr30Kデータセットの実験は、CLIPEraseがマルチモーダルサンプルのゼロショットタスクにおける指定された関連性を効果的に忘れていることを示している。
論文 参考訳(メタデータ) (2024-10-30T17:51:31Z) - Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [52.40798352740857]
3つのコアコンポーネントで構成されるICU(Iterative Contrastive Unlearning)フレームワークを紹介する。
知識未学習誘導モジュールは、未学習の損失を使用して、特定の知識を除去するためにターゲットとする。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を保持する。
イテレーティブ・アンラーニング・リファインメントモジュールは、進行中の評価と更新を通じて、アンラーニングプロセスを動的に調整する。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - CLASTER: Clustering with Reinforcement Learning for Zero-Shot Action
Recognition [52.66360172784038]
各インスタンスを個別に最適化するのではなく,すべてのトレーニングサンプルを同時に考慮したクラスタリングモデルを提案する。
提案手法をCLASTERと呼び,すべての標準データセットの最先端性を常に改善することを確認する。
論文 参考訳(メタデータ) (2021-01-18T12:46:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。