論文の概要: Forgetting is Competition: Rethinking Unlearning as Representation Interference in Diffusion Models
- arxiv url: http://arxiv.org/abs/2603.00975v1
- Date: Sun, 01 Mar 2026 08:07:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.437602
- Title: Forgetting is Competition: Rethinking Unlearning as Representation Interference in Diffusion Models
- Title(参考訳): 予測は競争である: 拡散モデルにおける表現的干渉としてのアンラーニングを再考する
- Authors: Ashutosh Ranjan, Vivek Srivastava, Shirish Karande, Murari Mandal,
- Abstract要約: SurgUnは、テキスト条件の拡散モデルで特定の視覚的概念を取り除くために、目標の重量空間更新を適用する外科的アンラーニング手法である。
我々のアプローチは、新たに獲得した記憶が以前の記憶へのアクセスを上書き、抑制、妨げることができるという、遡及的干渉理論によって動機付けられている。
我々は、この原理をレトロアクティブな概念干渉を誘導することにより拡散モデルに適用し、対象概念のみの集中的不安定化を可能にする。
- 参考スコア(独自算出の注目度): 7.17300076441681
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Unlearning in text-to-image diffusion models often leads to uneven concept removal and unintended forgetting of unrelated capabilities. This complicates tasks such as copyright compliance, protected data mitigation, artist opt-outs, and policy-driven content updates. As models grow larger and adopt more diverse architectures, achieving precise and selective unlearning while preserving generative quality becomes increasingly challenging. We introduce SurgUn (pronounced as Surgeon), a surgical unlearning method that applies targeted weight-space updates to remove specific visual concepts in text-conditioned diffusion models. Our approach is motivated by retroactive interference theory, which holds that newly acquired memories can overwrite, suppress, or impede access to prior ones by competing for shared representational pathways. We adapt this principle to diffusion models by inducing retroactive concept interference, enabling focused destabilization of only the target concept while preserving unrelated capabilities through a novel training paradigm. SurgUn achieves high-precision unlearning across diverse settings. It performs strongly on compact U-Net based models such as Stable Diffusion v1.5, scales effectively to the larger U-Net architecture SDXL, and extends to SANA, representing an underexplored Diffusion Transformer based architecture for unlearning.
- Abstract(参考訳): テキストから画像への拡散モデルにおける未学習は、しばしば不均一な概念の除去と意図しない無関係な能力を忘れてしまう。
これは著作権の遵守、保護されたデータ緩和、アーティストのオプトアウト、ポリシー駆動のコンテンツ更新といったタスクを複雑化する。
モデルが大きくなり、より多様なアーキテクチャを採用するにつれて、生成品質を維持しながら、正確で選択的なアンラーニングを達成することはますます困難になる。
我々はSurgUn(Surgeon)という,テキスト条件の拡散モデルにおける特定の視覚概念を除去するために,目標の重み空間更新を適用した外科的アンラーニング手法を紹介した。
我々のアプローチは、新たに獲得した記憶が、共有表現経路に競合することで、前者へのアクセスを上書き、抑制、あるいは妨げることができるという、遡及的干渉理論によって動機付けられている。
我々は、この原理を、レトロアクティブな概念干渉を誘導することで拡散モデルに適用し、新しい訓練パラダイムを通じて、関係のない能力を保ちながら、対象概念のみの集中的不安定化を可能にする。
SurgUnはさまざまな設定で高精度なアンラーニングを実現する。
安定拡散v1.5のようなコンパクトなU-Netベースモデルに強く依存し、より大きなU-NetアーキテクチャSDXLに効果的にスケールし、未学習の未学習ディフュージョントランスフォーマーベースのアーキテクチャとしてSANAに拡張する。
関連論文リスト
- ReLAPSe: Reinforcement-Learning-trained Adversarial Prompt Search for Erased concepts in unlearned diffusion models [12.021923446217722]
マシン・アンラーニングは、テキスト・ツー・イメージ拡散モデルから不正な概念を取り除くための鍵となる防御メカニズムである。
この漏洩を悪用する既存の敵のアプローチは、基本的な制限によって制約される。
本稿では,ReLAPSeについて紹介する。ReLAPSeは,概念回復を強化学習問題として再編成する政策ベースの敵対的枠組みである。
論文 参考訳(メタデータ) (2026-01-30T21:56:50Z) - TRACE: Trajectory-Constrained Concept Erasure in Diffusion Models [0.0]
概念消去は、生成モデルにおいて特定の概念情報を削除または抑制することを目的としている。
Trajectory-Constrained Attentional Concept Erasure (TRACE) は拡散モデルから対象概念を消去する新しい手法である。
TRACEは最先端のパフォーマンスを実現し、ANT、EraseAnything、MACEといった最近の手法よりも、除去効率と出力品質の点で優れています。
論文 参考訳(メタデータ) (2025-05-29T10:15:22Z) - Sculpting Memory: Multi-Concept Forgetting in Diffusion Models via Dynamic Mask and Concept-Aware Optimization [20.783312940122297]
テキスト・ツー・イメージ(T2I)拡散モデルは,テキスト・プロンプトから高品質な画像を生成することに成功している。
しかし、膨大な量の知識を蓄積する能力は、選択的に忘れることが必要なシナリオに懸念を生じさせる。
マルチコンセプトを忘れるように設計された新しいアンラーニングフレームワークであるコンセプト・アウェア・ロスを併用したtextbfDynamic Maskを提案する。
論文 参考訳(メタデータ) (2025-04-12T01:38:58Z) - SAeUron: Interpretable Concept Unlearning in Diffusion Models with Sparse Autoencoders [4.013156524547073]
拡散モデルは、必然的に有害または望ましくないコンテンツを生成できる。
最近の機械学習アプローチは潜在的な解決策を提供するが、透明性を欠いていることが多い。
本稿では,スパースオートエンコーダが学習した特徴を利用して不要な概念を除去する手法であるSAeUronを紹介する。
論文 参考訳(メタデータ) (2025-01-29T23:29:47Z) - ACDiT: Interpolating Autoregressive Conditional Modeling and Diffusion Transformer [95.80384464922147]
ACDiTはブロックワイド条件拡散変換器である。
トークン単位の自己回帰とフルシーケンス拡散のフレキシブルな関係を提供する。
本稿では,映像生成タスクにおける自己回帰ベースラインの中で,ACDiTが最良であることを示す。
論文 参考訳(メタデータ) (2024-12-10T18:13:20Z) - Bridging Generative and Discriminative Models for Unified Visual
Perception with Diffusion Priors [56.82596340418697]
本稿では,豊富な生成前駆体を含む事前学習型安定拡散(SD)モデルと,階層的表現を統合可能な統一型ヘッド(Uヘッド)と,識別前駆体を提供する適応型専門家からなる,シンプルで効果的なフレームワークを提案する。
包括的調査では、異なる時間ステップで潜伏変数に隠された知覚の粒度や様々なU-netステージなど、バーマスの潜在的な特性が明らかになった。
有望な結果は,有望な学習者としての拡散モデルの可能性を示し,情報的かつ堅牢な視覚表現の確立にその意義を定めている。
論文 参考訳(メタデータ) (2024-01-29T10:36:57Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - Phasic Content Fusing Diffusion Model with Directional Distribution
Consistency for Few-Shot Model Adaption [73.98706049140098]
本稿では,方向分布の整合性を損なう少数ショット拡散モデルを用いた新しいファシックコンテンツを提案する。
具体的には、ファシックコンテンツ融合を用いたファシックトレーニング戦略を設計し、tが大きければ、モデルがコンテンツやスタイル情報を学ぶのに役立てる。
最後に、ドメイン適応時の構造整合性を高めるクロスドメイン構造ガイダンス戦略を提案する。
論文 参考訳(メタデータ) (2023-09-07T14:14:11Z) - Training Diffusion Models with Reinforcement Learning [82.29328477109826]
拡散モデルは、ログのような目的に近似して訓練される。
本稿では,下流目的のための拡散モデルを直接最適化するための強化学習手法について検討する。
本稿では,多段階決定問題としてデノベーションを行うことによって,ポリシー勾配アルゴリズムのクラスを実現する方法について述べる。
論文 参考訳(メタデータ) (2023-05-22T17:57:41Z) - Exploiting Diffusion Prior for Real-World Image Super-Resolution [75.5898357277047]
本稿では,事前学習したテキスト・画像拡散モデルにカプセル化された事前知識を視覚的超解像に活用するための新しいアプローチを提案する。
時間認識エンコーダを用いることで、事前学習した合成モデルを変更することなく、有望な復元結果が得られる。
論文 参考訳(メタデータ) (2023-05-11T17:55:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。