論文の概要: Data Unlearning Beyond Uniform Forgetting via Diffusion Time and Frequency Selection
- arxiv url: http://arxiv.org/abs/2510.17917v1
- Date: Mon, 20 Oct 2025 02:00:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.346474
- Title: Data Unlearning Beyond Uniform Forgetting via Diffusion Time and Frequency Selection
- Title(参考訳): 拡散時間と周波数選択による一様予測を超えたデータ学習
- Authors: Jinseong Park, Mijung Park,
- Abstract要約: データアンラーニングは、トレーニングされたモデルから特定のトレーニングサンプルの影響を、完全なリトレーニングを必要とせずに取り除くことを目的としている。
私たちは、モデルやシナリオによって、時間と頻度で忘れることが不均等に起こると論じます。
トレーニング中の特定の時間周波数範囲に選択的に焦点を合わせることで,審美的品質と低雑音のサンプルが得られる。
- 参考スコア(独自算出の注目度): 5.350009804371616
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data unlearning aims to remove the influence of specific training samples from a trained model without requiring full retraining. Unlike concept unlearning, data unlearning in diffusion models remains underexplored and often suffers from quality degradation or incomplete forgetting. To address this, we first observe that most existing methods attempt to unlearn the samples at all diffusion time steps equally, leading to poor-quality generation. We argue that forgetting occurs disproportionately across time and frequency, depending on the model and scenarios. By selectively focusing on specific time-frequency ranges during training, we achieve samples with higher aesthetic quality and lower noise. We validate this improvement by applying our time-frequency selective approach to diverse settings, including gradient-based and preference optimization objectives, as well as both image-level and text-to-image tasks. Finally, to evaluate both deletion and quality of unlearned data samples, we propose a simple normalized version of SSCD. Together, our analysis and methods establish a clearer understanding of the unique challenges in data unlearning for diffusion models, providing practical strategies to improve both evaluation and unlearning performance.
- Abstract(参考訳): データアンラーニングは、トレーニングされたモデルから特定のトレーニングサンプルの影響を、完全なリトレーニングを必要とせずに取り除くことを目的としている。
アンラーニングの概念とは異なり、拡散モデルにおけるデータアンラーニングは未熟であり、品質劣化や不完全忘れに悩まされることが多い。
この問題に対処するために、既存のほとんどの手法が全ての拡散時間ステップでサンプルを均等に解き放とうとしているのを最初に観察し、質の悪い生成につながった。
私たちは、モデルやシナリオによって、時間と頻度で忘れることが不均等に起こると論じます。
トレーニング中の特定の時間周波数範囲に選択的に焦点を合わせることで,審美的品質と低雑音のサンプルが得られる。
画像レベルとテキスト・ツー・イメージの両タスクと同様に、勾配ベースと優先最適化の目的を含む様々な設定に時間周波数選択的アプローチを適用することで、この改善を検証する。
最後に、未学習データサンプルの削除と品質を評価するため、SSCDの単純な正規化バージョンを提案する。
分析と手法は,拡散モデルにおけるデータアンラーニングにおけるユニークな課題をより明確に理解し,評価とアンラーニング性能を改善するための実践的戦略を提供する。
関連論文リスト
- Differential-informed Sample Selection Accelerates Multimodal Contrastive Learning [35.359482937263145]
そこで本研究では,学習促進のための雑音対応を高精度かつ効率的に識別するDISSect法を提案する。
具体的には,雑音対応がコントラスト学習に与える影響を再考し,現在のモデルと過去のモデルとの相関関係の差が,サンプル品質の特徴づけに有益であることを示す。
論文 参考訳(メタデータ) (2025-07-17T11:13:44Z) - OASIS: Online Sample Selection for Continual Visual Instruction Tuning [55.92362550389058]
連続的インストラクションチューニング(CIT)のシナリオでは、新しいインストラクションチューニングデータがオンラインストリーミング形式で連続的に到着する。
データの選択はこのオーバーヘッドを軽減することができるが、既存の戦略はしばしば事前訓練された参照モデルに依存している。
最近の参照モデルなしオンラインサンプル選択手法はこれに対処するが、典型的にはバッチ毎に一定の数のサンプルを選択する。
論文 参考訳(メタデータ) (2025-05-27T20:32:43Z) - Adaptive Non-Uniform Timestep Sampling for Diffusion Model Training [4.760537994346813]
データ分布が複雑化するにつれて、収束のためのトレーニング拡散モデルがますます複雑になる。
より重要な時間ステップを優先する一様でない時間ステップサンプリング手法を提案する。
提案手法は, 各種データセット, スケジューリング戦略, 拡散アーキテクチャにまたがるロバストな性能を示す。
論文 参考訳(メタデータ) (2024-11-15T07:12:18Z) - Data Attribution for Diffusion Models: Timestep-induced Bias in Influence Estimation [53.27596811146316]
拡散モデルは、以前の文脈における瞬間的な入出力関係ではなく、一連のタイムステップで操作する。
本稿では、この時間的ダイナミクスを取り入れた拡散トラクInについて、サンプルの損失勾配ノルムが時間ステップに大きく依存していることを確認する。
そこで我々はDiffusion-ReTracを再正規化適応として導入し、興味のあるサンプルを対象にしたトレーニングサンプルの検索を可能にする。
論文 参考訳(メタデータ) (2024-01-17T07:58:18Z) - Conditional Variational Diffusion Models [1.8657053208839998]
逆問題とは、工学と科学における重要な課題である観測からパラメータを決定することである。
本稿では,学習過程の一環として分散スケジュールを学習するための新しいアプローチを提案する。
提案手法は,データに対する確率的条件付けをサポートし,高品質なソリューションを提供し,柔軟性があり,最小限のオーバーヘッドで異なるアプリケーションに適応できることを示す。
論文 参考訳(メタデータ) (2023-12-04T14:45:56Z) - BOOT: Data-free Distillation of Denoising Diffusion Models with
Bootstrapping [64.54271680071373]
拡散モデルは多様な画像を生成する優れた可能性を示している。
知識蒸留は、推論ステップの数を1つか数に減らすための治療法として最近提案されている。
本稿では,効率的なデータフリー蒸留アルゴリズムにより限界を克服するBOOTと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T20:30:55Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。