論文の概要: Unlearning the Unpromptable: Prompt-free Instance Unlearning in Diffusion Models
- arxiv url: http://arxiv.org/abs/2603.10445v1
- Date: Wed, 11 Mar 2026 06:00:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.7974
- Title: Unlearning the Unpromptable: Prompt-free Instance Unlearning in Diffusion Models
- Title(参考訳): Unlearning the Unpromptable: Unlearning in Diffusion Models
- Authors: Kyungryeol Lee, Kyeonghyun Lee, Seongmin Hong, Byung Hyun Lee, Se Young Chun,
- Abstract要約: 機械学習は、訓練されたモデルから特定のアウトプットを削除することを目的としている。
個人の顔や世代など、文化的または事実的に誤解された多くの望ましくないアウトプットは、しばしばテキストプロンプトによって特定できない。
本稿では,画像編集,時間経過認識重み付け,勾配手術を活用した効果的な代理型アンラーニング手法を提案する。
- 参考スコア(独自算出の注目度): 32.23976951690182
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine unlearning aims to remove specific outputs from trained models, often at the concept level, such as forgetting all occurrences of a particular celebrity or filtering content via text prompts. However, many undesired outputs, such as an individual's face or generations culturally or factually misinterpreted, cannot often be specified by text prompts. We address this underexplored setting of instance unlearning for outputs that are undesired but unpromptable, where the goal is to forget target outputs selectively while preserving the rest. To this end, we introduce an effective surrogate-based unlearning method that leverages image editing, timestep-aware weighting, and gradient surgery to guide trained diffusion models toward forgetting specific outputs. Experiments on conditional (Stable Diffusion 3) and unconditional (DDPM-CelebA) diffusion models demonstrate that our prompt-free method uniquely unlearns unpromptable outputs, such as faces and culturally inaccurate depictions, with preserved integrity, unlike prompt-based and prompt-free baselines. Our proposed method would serve as a practical hotfix for diffusion model providers to ensure privacy protection and ethical compliance.
- Abstract(参考訳): Machine Unlearningは、トレーニングされたモデルから、しばしばコンセプトレベルで、特定の有名人のすべての発生を忘れたり、テキストプロンプトを介してコンテンツをフィルタリングしたりするといった、特定のアウトプットを削除することを目的としている。
しかし、個人の顔や世代など、文化的、あるいは事実的に誤解されるような望ましくないアウトプットの多くは、しばしばテキストプロンプトによって特定できない。
目的は、残りを保存しながらターゲット出力を選択的に忘れることである。
そこで本稿では, 画像編集, タイムステップ認識重み付け, 勾配手術を活用して, 特定の出力を忘れるように訓練された拡散モデルを誘導する, 効果的なサロゲートに基づくアンラーニング手法を提案する。
条件付き拡散(Stable Diffusion 3)および非条件付き拡散モデル(DDPM-CelebA)による実験により,我々のプロンプトフリーな手法は,プロンプトベースやプロンプトフリーなベースラインとは異なり,顔や文化的に不正確な描写などの不正確なアウトプットを一意に解き放つことを示した。
提案手法は,プライバシ保護と倫理的コンプライアンスを確保するために,拡散モデルプロバイダの実用的なホットフィックスとして機能する。
関連論文リスト
- Coffee: Controllable Diffusion Fine-tuning [10.29166433552457]
Coffeeでは、言語を使って望ましくない概念を指定して適応プロセスを規則化することができる。
我々は、望ましくない概念と組み合わせたユーザプロンプトに関連する画像の微調整によりコーヒーを評価する。
論文 参考訳(メタデータ) (2025-11-18T03:53:19Z) - SAeUron: Interpretable Concept Unlearning in Diffusion Models with Sparse Autoencoders [4.013156524547073]
拡散モデルは、必然的に有害または望ましくないコンテンツを生成できる。
最近の機械学習アプローチは潜在的な解決策を提供するが、透明性を欠いていることが多い。
本稿では,スパースオートエンコーダが学習した特徴を利用して不要な概念を除去する手法であるSAeUronを紹介する。
論文 参考訳(メタデータ) (2025-01-29T23:29:47Z) - Score Forgetting Distillation: A Swift, Data-Free Method for Machine Unlearning in Diffusion Models [63.43422118066493]
マシン・アンラーニング(MU)は安全でセキュアで信頼性の高いGenAIモデルを開発する上で重要な基盤である。
従来のMUメソッドは、しばしば厳密な仮定に依存し、実際のデータへのアクセスを必要とする。
本稿では,拡散モデルにおいて望ましくない情報を忘れることを促進する革新的なMUアプローチであるScore Forgetting Distillation (SFD)を紹介する。
論文 参考訳(メタデータ) (2024-09-17T14:12:50Z) - Detecting, Explaining, and Mitigating Memorization in Diffusion Models [49.438362005962375]
そこで本研究では,テキスト条件予測の大きさを検査することで,暗黙のプロンプトを検出する方法を提案する。
提案手法はサンプリングアルゴリズムを中断することなくシームレスに統合し,第1世代でも高い精度を実現する。
検出戦略に基づいて,個々の単語やトークンの記憶への寄与を示す説明可能なアプローチを提示する。
論文 参考訳(メタデータ) (2024-07-31T16:13:29Z) - Attend-and-Excite: Attention-Based Semantic Guidance for Text-to-Image
Diffusion Models [103.61066310897928]
最近のテキスト・ツー・イメージ生成モデルは、ターゲットのテキスト・プロンプトによって導かれる多様な創造的な画像を生成する非例外的な能力を実証している。
革命的ではあるが、現在の最先端拡散モデルは、与えられたテキストプロンプトのセマンティクスを完全に伝達するイメージの生成に失敗する可能性がある。
本研究では, 一般に公開されている安定拡散モデルを分析し, 破滅的無視の有無を評価し, そのモデルが入力プロンプトから1つ以上の被写体を生成するのに失敗した場合について検討する。
提案するジェネレーティブ・セマンティック・ナーシング(GSN)の概念は、推論時間中にハエの生殖過程に介入し、忠実性を改善するものである。
論文 参考訳(メタデータ) (2023-01-31T18:10:38Z) - Bayesian Prompt Learning for Image-Language Model Generalization [64.50204877434878]
我々はベイズ法の正規化能力を用いて、変分推論問題としてプロンプト学習をフレーム化する。
提案手法は,プロンプト空間を正規化し,目に見えないプロンプトへの過剰適合を低減し,目に見えないプロンプトのプロンプト一般化を改善する。
ベイジアン・プロンプト学習がプロンプト空間の適切なカバレッジを提供する15のベンチマークを実証的に示す。
論文 参考訳(メタデータ) (2022-10-05T17:05:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。