論文の概要: ReTrack: Data Unlearning in Diffusion Models through Redirecting the Denoising Trajectory
- arxiv url: http://arxiv.org/abs/2509.13007v1
- Date: Tue, 16 Sep 2025 12:20:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.076217
- Title: ReTrack: Data Unlearning in Diffusion Models through Redirecting the Denoising Trajectory
- Title(参考訳): ReTrack: Denoising Trajectoryをリダイレクトする拡散モデルにおけるデータアンラーニング
- Authors: Qitan Shi, Cheng Jin, Jiawei Zhang, Yuantao Gu,
- Abstract要約: 拡散モデルのための高速かつ効果的なデータアンラーニング手法であるReTrackを提案する。
ReTrackはより効率的な微調整損失を構築するために重要サンプリングを採用している。
MNIST T-Shirt、CelebA-HQ、CIFAR-10、および安定拡散の実験は、ReTrackが最先端のパフォーマンスを達成することを示した。
- 参考スコア(独自算出の注目度): 17.016094185289372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models excel at generating high-quality, diverse images but suffer from training data memorization, raising critical privacy and safety concerns. Data unlearning has emerged to mitigate this issue by removing the influence of specific data without retraining from scratch. We propose ReTrack, a fast and effective data unlearning method for diffusion models. ReTrack employs importance sampling to construct a more efficient fine-tuning loss, which we approximate by retaining only dominant terms. This yields an interpretable objective that redirects denoising trajectories toward the $k$-nearest neighbors, enabling efficient unlearning while preserving generative quality. Experiments on MNIST T-Shirt, CelebA-HQ, CIFAR-10, and Stable Diffusion show that ReTrack achieves state-of-the-art performance, striking the best trade-off between unlearning strength and generation quality preservation.
- Abstract(参考訳): 拡散モデルは高品質で多様な画像を生成するのに優れていますが、トレーニングデータの記憶に悩まされ、重要なプライバシと安全性の懸念が高まります。
データアンラーニングは、スクラッチからリトレーニングすることなく、特定のデータの影響を取り除き、この問題を軽減するために現れた。
拡散モデルのための高速かつ効果的なデータアンラーニング手法であるReTrackを提案する。
ReTrackは、より効率的な微調整損失を構築するために重要サンプリングを使用し、支配的な項のみを保持することで近似する。
これは解釈可能な目的をもたらし、軌道を$k$-nearestの隣人にリダイレクトし、生成品質を維持しながら効率的なアンラーニングを可能にします。
MNIST T-Shirt、CelebA-HQ、CIFAR-10、およびStable Diffusionの実験では、ReTrackは最先端のパフォーマンスを達成し、未学習の強度と生成品質の最良のトレードオフを達成している。
関連論文リスト
- E2ED^2:Direct Mapping from Noise to Data for Enhanced Diffusion Models [15.270657838960114]
拡散モデルは、視覚的生成モデリングにおけるデファクト・プライマリ・パラダイムとして確立されてきた。
最終生成サンプルから初期雑音への直接最適化を実現する新しいエンドツーエンド学習パラダイムを提案する。
Fr'eche't Inception Distance (FID) と CLIP のスコアは,サンプリングステップが少なくても大幅に向上する。
論文 参考訳(メタデータ) (2024-12-30T16:06:31Z) - LoyalDiffusion: A Diffusion Model Guarding Against Data Replication [6.818344768093927]
拡散モデルは、特にトレーニングデータが機密情報を含む場合、トレーニングデータを複製することができる。
画像品質に欠かせない接続に情報転送ブロックを組み込んだ複製対応U-Netアーキテクチャを提案する。
実験により、LoyalDiffusionは、画像の品質を維持しながら48.63%の複製を減少させる、最先端の複製緩和法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-12-02T04:41:30Z) - Streamlined Federated Unlearning: Unite as One to Be Highly Efficient [12.467630082668254]
近年,「忘れられる権利」の制定は,連邦学習(FL)に新たなプライバシー要件を課している。
本研究では, モデル性能を劣化することなく保持データに保存しつつ, 対象データの影響を効果的に除去することを目的とした, 合理化アンラーニング手法を提案する。
論文 参考訳(メタデータ) (2024-11-28T12:52:48Z) - Representation Alignment for Generation: Training Diffusion Transformers Is Easier Than You Think [72.48325960659822]
生成のための大規模拡散モデルの訓練における主要なボトルネックは、これらの表現を効果的に学習することにある。
本稿では,RePresentation Alignment (REPA) と呼ばれる単純な正規化を導入し,ノイズの多い入力隠れ状態の投影を,外部の事前学習された視覚エンコーダから得られるクリーンな画像表現と整合させる手法を提案する。
我々の単純な戦略は、一般的な拡散やDiTsやSiTsといったフローベースのトランスフォーマーに適用した場合、トレーニング効率と生成品質の両方に大きな改善をもたらす。
論文 参考訳(メタデータ) (2024-10-09T14:34:53Z) - Accurate Forgetting for All-in-One Image Restoration Model [3.367455972998532]
現在、Machine Unlearningと呼ばれる低価格のスキームは、モデルに記憶されているプライベートデータを忘れている。
このことから,画像復元とセキュリティのギャップを埋めるために,この概念を応用しようと試みている。
論文 参考訳(メタデータ) (2024-09-01T10:14:16Z) - Fast Machine Unlearning Without Retraining Through Selective Synaptic
Dampening [51.34904967046097]
Selective Synaptic Dampening (SSD)は高速で、訓練データの長期保存を必要としない。
高速で性能が高く,トレーニングデータの長期保存を必要としない,新しい2段階のポストホック,リトレーニングフリーなマシンアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T11:30:45Z) - Boosting Facial Expression Recognition by A Semi-Supervised Progressive
Teacher [54.50747989860957]
本稿では,信頼度の高いFERデータセットと大規模未ラベル表現画像を有効訓練に用いるための半教師付き学習アルゴリズム,Progressive Teacher (PT)を提案する。
RAF-DB と FERPlus を用いた実験により,RAF-DB で89.57% の精度で最先端の性能を実現する手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-05-28T07:47:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。