論文の概要: UnHype: CLIP-Guided Hypernetworks for Dynamic LoRA Unlearning
- arxiv url: http://arxiv.org/abs/2602.03410v1
- Date: Tue, 03 Feb 2026 11:37:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.417892
- Title: UnHype: CLIP-Guided Hypernetworks for Dynamic LoRA Unlearning
- Title(参考訳): UnHype: 動的LoRAアンラーニングのためのCLIP-Guided Hypernetworks
- Authors: Piotr Wójcik, Maksym Petrenko, Wojciech Gromski, Przemysław Spurek, Maciej Zieba,
- Abstract要約: UnHypeは、ハイパーネットワークをシングルコンセプトとマルチコンセプトのローランド適応(LoRA)トレーニングに組み込むフレームワークである。
推論中、ハイパーネットワークはCLIP埋め込みに基づいて適応的なLoRA重みを動的に生成する。
我々はUnHypeを、オブジェクト消去、有名人の消去、明示的なコンテンツ削除など、いくつかの困難なタスクで評価する。
- 参考スコア(独自算出の注目度): 3.8373805990749266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in large-scale diffusion models have intensified concerns about their potential misuse, particularly in generating realistic yet harmful or socially disruptive content. This challenge has spurred growing interest in effective machine unlearning, the process of selectively removing specific knowledge or concepts from a model without compromising its overall generative capabilities. Among various approaches, Low-Rank Adaptation (LoRA) has emerged as an effective and efficient method for fine-tuning models toward targeted unlearning. However, LoRA-based methods often exhibit limited adaptability to concept semantics and struggle to balance removing closely related concepts with maintaining generalization across broader meanings. Moreover, these methods face scalability challenges when multiple concepts must be erased simultaneously. To address these limitations, we introduce UnHype, a framework that incorporates hypernetworks into single- and multi-concept LoRA training. The proposed architecture can be directly plugged into Stable Diffusion as well as modern flow-based text-to-image models, where it demonstrates stable training behavior and effective concept control. During inference, the hypernetwork dynamically generates adaptive LoRA weights based on the CLIP embedding, enabling more context-aware, scalable unlearning. We evaluate UnHype across several challenging tasks, including object erasure, celebrity erasure, and explicit content removal, demonstrating its effectiveness and versatility. Repository: https://github.com/gmum/UnHype.
- Abstract(参考訳): 大規模拡散モデルの最近の進歩は、その潜在的な誤用、特に現実的で有害な、あるいは社会的に破壊的なコンテンツを生成する際の懸念を強めている。
この課題は、モデルから特定の知識や概念を選択的に除去するプロセスであり、全体的な生成能力を損なうことなく、効果的な機械学習への関心が高まっている。
様々なアプローチの中で、ローランド適応(LoRA)は標的未学習に対する微調整モデルの効率的かつ効率的な方法として現れている。
しかし、LoRAベースの手法は概念意味論への適応性に限界があり、より広い意味をまたいだ一般化を維持することで、密接に関連する概念を除去するバランスをとるのに苦労することが多い。
さらに、複数の概念を同時に消去する必要がある場合、これらの手法はスケーラビリティの課題に直面している。
これらの制限に対処するために、ハイパーネットワークをシングルコンセプトのLoRAトレーニングに組み込むフレームワークUnHypeを紹介します。
提案したアーキテクチャは、安定なトレーニング行動と効果的な概念制御を実証する、最新のフローベースのテキスト・ツー・イメージモデルと直接接続することができる。
推論中、ハイパーネットワークはCLIP埋め込みに基づいて適応的なLoRA重みを動的に生成し、よりコンテキスト対応でスケーラブルなアンラーニングを可能にする。
我々はUnHypeを、オブジェクト消去、有名人消去、明示的なコンテンツ削除など、いくつかの困難なタスクで評価し、その効果と汎用性を実証した。
リポジトリ: https://github.com/gmum/UnHype.com
関連論文リスト
- ActErase: A Training-Free Paradigm for Precise Concept Erasure via Activation Patching [16.08258534688825]
効率的な概念消去のための新しいトレーニングフリー手法(ActErase)を提案する。
本手法は,モデル全体の生成能力を効果的に保ちながら,最先端の消去性能を実現する。
論文 参考訳(メタデータ) (2026-01-01T09:11:09Z) - Discrete Diffusion for Reflective Vision-Language-Action Models in Autonomous Driving [55.13109926181247]
離散拡散による安全な軌道生成のためのリフレクション機構を統合した学習ベースのフレームワークであるReflectDriveを紹介する。
我々のアプローチの中心は、勾配のない反復的な自己補正を行う、安全を意識した反射機構である。
本手法は目標条件付き軌道生成から始まり,マルチモーダル運転動作をモデル化する。
論文 参考訳(メタデータ) (2025-09-24T13:35:15Z) - UnGuide: Learning to Forget with LoRA-Guided Diffusion Models [6.860380947025009]
大規模テキスト・画像拡散モデルの最近の進歩は、その誤用に対する懸念を高めている。
これは、効果的な機械学習、すなわち事前訓練されたモデルから特定の知識や概念を取り除く必要性を浮き彫りにする。
本研究では,Un-Free Guidance(CFG)を取り入れたUnGuideを提案する。
論文 参考訳(メタデータ) (2025-08-07T18:12:03Z) - Image Can Bring Your Memory Back: A Novel Multi-Modal Guided Attack against Image Generation Model Unlearning [28.15997901023315]
Recallは、未学習のIMGの堅牢性を損なうために設計された、新しい敵のフレームワークである。
逆効果、計算効率、意味的忠実性の点で、元のプロンプトで既存のベースラインを一貫して上回ります。
これらの結果は、現在の未学習メカニズムにおける重大な脆弱性を明らかにし、より堅牢なソリューションの必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-07-09T02:59:01Z) - Disentangled World Models: Learning to Transfer Semantic Knowledge from Distracting Videos for Reinforcement Learning [65.85335291827086]
本稿では,オフラインからオンラインまでの潜水蒸留とフレキシブルなゆがみ制約を通したビデオから,セマンティックな違いを学習し,理解することを試みる。
動作自由なビデオ予測モデルを非干渉正規化によりオフラインでトレーニングし、注意をそらすビデオから意味的知識を抽出する。
オンライン環境での微調整には、事前学習されたモデルからの知識を活用し、世界モデルに絡み合った制約を導入する。
論文 参考訳(メタデータ) (2025-03-11T13:50:22Z) - Expressive and Generalizable Low-rank Adaptation for Large Models via Slow Cascaded Learning [55.5715496559514]
LoRA Slow Cascade Learning (LoRASC)は、LoRAの表現性と一般化能力を高めるために設計された革新的な技術である。
提案手法は,混合低ランク適応を可能にするカスケード学習戦略により表現性を増強し,複雑なパターンをキャプチャするモデルの能力を高める。
論文 参考訳(メタデータ) (2024-07-01T17:28:59Z) - LoRA-Ensemble: Efficient Uncertainty Modelling for Self-Attention Networks [52.46420522934253]
本稿では,自己注意ネットワークのためのパラメータ効率のよいアンサンブル手法であるLoRA-Ensembleを紹介する。
この方法は、BatchEnsembleのような最先端の暗黙のテクニックを上回るだけでなく、Explicit Ensembleの正確さにマッチするか超える。
論文 参考訳(メタデータ) (2024-05-23T11:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。