論文の概要: Towards Irreversible Machine Unlearning for Diffusion Models
- arxiv url: http://arxiv.org/abs/2512.03564v1
- Date: Wed, 03 Dec 2025 08:37:33 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:13:28.373174
- Title: Towards Irreversible Machine Unlearning for Diffusion Models
- Title(参考訳): 拡散モデルのための不可逆機械の学習に向けて
- Authors: Xun Yuan, Zilong Zhao, Jiayu Li, Aryan Pasikhani, Prosanta Gope, Biplab Sikdar,
- Abstract要約: 拡散モデル再学習攻撃 (Diffusion Model Relearning Attack, DiMRA) は、微調整に基づく機械学習手法を逆転させることができる。
DiMUMは、ターゲットとする未学習データや機能を置き換えるために、代替データや機能を記憶する。
拡散モデルの生成性能を維持する優れた能力を示すとともに,DiMUMを広範囲に評価した。
- 参考スコア(独自算出の注目度): 9.662143775645532
- License:
- Abstract: Diffusion models are renowned for their state-of-the-art performance in generating synthetic images. However, concerns related to safety, privacy, and copyright highlight the need for machine unlearning, which can make diffusion models forget specific training data and prevent the generation of sensitive or unwanted content. Current machine unlearning methods for diffusion models are primarily designed for conditional diffusion models and focus on unlearning specific data classes or features. Among these methods, finetuning-based machine unlearning methods are recognized for their efficiency and effectiveness, which update the parameters of pre-trained diffusion models by minimizing carefully designed loss functions. However, in this paper, we propose a novel attack named Diffusion Model Relearning Attack (DiMRA), which can reverse the finetuning-based machine unlearning methods, posing a significant vulnerability of this kind of technique. Without prior knowledge of the unlearning elements, DiMRA optimizes the unlearned diffusion model on an auxiliary dataset to reverse the unlearning, enabling the model to regenerate previously unlearned elements. To mitigate this vulnerability, we propose a novel machine unlearning method for diffusion models, termed as Diffusion Model Unlearning by Memorization (DiMUM). Unlike traditional methods that focus on forgetting, DiMUM memorizes alternative data or features to replace targeted unlearning data or features in order to prevent generating such elements. In our experiments, we demonstrate the effectiveness of DiMRA in reversing state-of-the-art finetuning-based machine unlearning methods for diffusion models, highlighting the need for more robust solutions. We extensively evaluate DiMUM, demonstrating its superior ability to preserve the generative performance of diffusion models while enhancing robustness against DiMRA.
- Abstract(参考訳): 拡散モデルは合成画像の生成における最先端の性能で有名である。
しかし、安全、プライバシー、著作権に関する懸念は、拡散モデルが特定のトレーニングデータを忘れたり、センシティブなコンテンツや望ましくないコンテンツの発生を防げるマシンアンラーニングの必要性を強調している。
拡散モデルに対する現在の機械学習手法は、主に条件付き拡散モデルのために設計され、学習されていない特定のデータクラスや特徴に焦点を当てている。
これらの方法のうち、ファインタニングに基づく機械学習手法はその効率と有効性を認識し、慎重に設計された損失関数を最小化することにより、事前学習された拡散モデルのパラメータを更新する。
しかし,本稿では,ディフュージョンモデル再学習攻撃(Diffusion Model Relearning Attack, DiMRA)という新たな攻撃手法を提案する。
未学習要素の事前知識がなければ、DiMRAは未学習の拡散モデルを補助データセット上で最適化し、未学習要素を逆転させ、未学習要素を再生することができる。
この脆弱性を緩和するため,拡散モデル学習法(Diffusion Model Unlearning by Memorization, DiMUM)を提案する。
忘れることに集中する従来の方法とは異なり、DiMUMは代替データや機能を記憶して、ターゲットとする未学習データや機能を置き換えることで、そのような要素の生成を防ぐ。
実験では,拡散モデルに対する最先端の微調整に基づく機械学習手法の逆変換におけるDiMRAの有効性を実証し,より堅牢な解の必要性を強調した。
本研究では,DiMUMの拡散モデル生成性能を向上しつつ,DEMRAに対する堅牢性を向上する優れた性能を示すとともに,DiMUMを広範囲に評価する。
関連論文リスト
- Variational Diffusion Unlearning: A Variational Inference Framework for Unlearning in Diffusion Models under Data Constraints [9.885531514020437]
本研究では,事前学習した拡散モデルから望ましくない特徴を含む出力の発生を防止できる機械学習手法を提案する。
本手法は, 可塑性インデューサと安定正則化器の2項からなる損失関数の最小化を目的とした, 変分推論フレームワークに着想を得たものである。
本手法の有効性は,授業未学習と特徴未学習の両方に対する総合的な実験を通じて検証する。
論文 参考訳(メタデータ) (2025-10-05T06:39:30Z) - A Novel Cloud-Based Diffusion-Guided Hybrid Model for High-Accuracy Accident Detection in Intelligent Transportation Systems [21.082870778158313]
誘導分類と拡散手法を組み合わせた新しいハイブリッドモデルを提案する。
私たちの実装はクラウドベースで、スケーラブルで効率的な処理を可能にしています。
提案した拡散モデルでは,97.32%の精度で画像に基づく事故検出を行う。
論文 参考訳(メタデータ) (2025-10-04T05:02:15Z) - Model Integrity when Unlearning with T2I Diffusion Models [11.321968363411145]
「忘れ分布からのサンプルを特徴とする特定種類の画像の生成を減らすために、近似機械学習アルゴリズムを提案する。」
次に、既存のベースラインと比較してモデルの整合性を保つ上で優れた効果を示す未学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-04T13:15:28Z) - Score Forgetting Distillation: A Swift, Data-Free Method for Machine Unlearning in Diffusion Models [63.43422118066493]
マシン・アンラーニング(MU)は安全でセキュアで信頼性の高いGenAIモデルを開発する上で重要な基盤である。
従来のMUメソッドは、しばしば厳密な仮定に依存し、実際のデータへのアクセスを必要とする。
本稿では,拡散モデルにおいて望ましくない情報を忘れることを促進する革新的なMUアプローチであるScore Forgetting Distillation (SFD)を紹介する。
論文 参考訳(メタデータ) (2024-09-17T14:12:50Z) - Self-Play Fine-Tuning of Diffusion Models for Text-to-Image Generation [59.184980778643464]
ファインチューニング拡散モデル : 生成人工知能(GenAI)の最前線
本稿では,拡散モデル(SPIN-Diffusion)のための自己演奏ファインチューニングという革新的な手法を紹介する。
提案手法は従来の教師付き微調整とRL戦略の代替として,モデル性能とアライメントの両方を大幅に改善する。
論文 参考訳(メタデータ) (2024-02-15T18:59:18Z) - Erasing Undesirable Influence in Diffusion Models [51.225365010401006]
拡散モデルは高品質な画像を生成するのに非常に効果的であるが、NSFW(職場では安全ではない)コンテンツの意図しない生成のようなリスクを引き起こす。
本研究では,データに関連付けられた不要な情報を取り除き,保存データに対する拡散モデルの実用性を維持するために設計されたアルゴリズムであるEraseDiffを紹介する。
論文 参考訳(メタデータ) (2024-01-11T09:30:36Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。