論文の概要: Unlearning for One-Step Generative Models via Unbalanced Optimal Transport
- arxiv url: http://arxiv.org/abs/2603.16489v1
- Date: Tue, 17 Mar 2026 13:19:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.293156
- Title: Unlearning for One-Step Generative Models via Unbalanced Optimal Transport
- Title(参考訳): 不均衡最適輸送によるワンステップ生成モデルの学習
- Authors: Hyundo Choi, Junhyeong An, Jinseong Park, Jaewoong Choi,
- Abstract要約: UOT-Unlearnはワンステップ生成モデルのための新しいプラグイン・アンド・プレイクラス・アンラーニングフレームワークである。
本手法は,未学習を基本的トレードオフとして定式化し,目標クラスを抑圧する忘れコストと,$f$-divergenceのペナルティを規定する。
- 参考スコア(独自算出の注目度): 11.695528552671371
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in one-step generative frameworks, such as flow map models, have significantly improved the efficiency of image generation by learning direct noise-to-data mappings in a single forward pass. However, machine unlearning for ensuring the safety of these powerful generators remains entirely unexplored. Existing diffusion unlearning methods are inherently incompatible with these one-step models, as they rely on a multi-step iterative denoising process. In this work, we propose UOT-Unlearn, a novel plug-and-play class unlearning framework for one-step generative models based on the Unbalanced Optimal Transport (UOT). Our method formulates unlearning as a principled trade-off between a forget cost, which suppresses the target class, and an $f$-divergence penalty, which preserves overall generation fidelity via relaxed marginal constraints. By leveraging UOT, our method enables the probability mass of the forgotten class to be smoothly redistributed to the remaining classes, rather than collapsing into low-quality or noise-like samples. Experimental results on CIFAR-10 and ImageNet-256 demonstrate that our framework achieves superior unlearning success (PUL) and retention quality (u-FID), significantly outperforming baselines.
- Abstract(参考訳): フローマップモデルのような一段階生成フレームワークの最近の進歩は、単一のフォワードパスで直接ノイズ-データマッピングを学習することで、画像生成の効率を大幅に向上させた。
しかし、これらの強力な発電機の安全性を確保するための機械学習は、まだ完全に研究されていない。
既存の拡散未学習法は、これらの一段階モデルとは本質的に相容れない。
本研究では,Un Balanced Optimal Transport (UOT) に基づく一段階生成モデルのための,新しいプラグアンドプレイアンラーニングフレームワークであるUOT-Unlearnを提案する。
本手法は,未学習を,目標クラスを抑止する忘れコストと,緩やかな限界制約を通した全体の生成忠実性を維持する$f$-divergenceペナルティとの原則的トレードオフとして定式化する。
UOTを活用することで,低品質やノイズのようなサンプルに分解するのではなく,忘れられたクラスの確率質量を残りのクラスにスムーズに再分配することが可能となる。
CIFAR-10 と ImageNet-256 による実験結果から,我々のフレームワークは,より優れた未学習成功 (PUL) と保持品質 (u-FID) を実現し,ベースラインを著しく上回ることを示した。
関連論文リスト
- Variational Diffusion Unlearning: A Variational Inference Framework for Unlearning in Diffusion Models under Data Constraints [9.885531514020437]
本研究では,事前学習した拡散モデルから望ましくない特徴を含む出力の発生を防止できる機械学習手法を提案する。
本手法は, 可塑性インデューサと安定正則化器の2項からなる損失関数の最小化を目的とした, 変分推論フレームワークに着想を得たものである。
本手法の有効性は,授業未学習と特徴未学習の両方に対する総合的な実験を通じて検証する。
論文 参考訳(メタデータ) (2025-10-05T06:39:30Z) - Distillation Robustifies Unlearning [36.27570321651185]
モデルのトレーニングは、基礎となる機能をそのまま残しながら、インプット・アウトプットの動作を大幅に変更できることを示す。
本研究では,未学習のモデルを自身のノイズコピーに蒸留するスケーラブルな手法であるUnlearn-Noise-Distill-on-Outputs (UNDO)を提案する。
論文 参考訳(メタデータ) (2025-06-06T17:58:54Z) - One-Step Diffusion Model for Image Motion-Deblurring [85.76149042561507]
本稿では,脱臭過程を1段階に短縮する新しいフレームワークである脱臭拡散モデル(OSDD)を提案する。
拡散モデルにおける忠実度損失に対処するために,構造復元を改善する改良された変分オートエンコーダ(eVAE)を導入する。
提案手法は,実測値と非参照値の両方で高い性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T09:39:57Z) - Representation Alignment for Generation: Training Diffusion Transformers Is Easier Than You Think [72.48325960659822]
生成のための大規模拡散モデルの訓練における主要なボトルネックは、これらの表現を効果的に学習することにある。
本稿では,RePresentation Alignment (REPA) と呼ばれる単純な正規化を導入し,ノイズの多い入力隠れ状態の投影を,外部の事前学習された視覚エンコーダから得られるクリーンな画像表現と整合させる手法を提案する。
我々の単純な戦略は、一般的な拡散やDiTsやSiTsといったフローベースのトランスフォーマーに適用した場合、トレーニング効率と生成品質の両方に大きな改善をもたらす。
論文 参考訳(メタデータ) (2024-10-09T14:34:53Z) - Advancing the Robustness of Large Language Models through Self-Denoised Smoothing [50.54276872204319]
大規模言語モデル(LLM)は大きな成功を収めたが、敵の摂動に対する脆弱性は大きな懸念を引き起こしている。
本稿では,LLMのマルチタスク特性を活用して,まずノイズの入力を識別し,次にこれらの復号化バージョンに基づいて予測を行う。
LLMのロバスト性を高めるために個別のモデルを訓練する必要がある従来のコンピュータビジョンのスムース化技術とは異なり、本手法は効率と柔軟性を著しく向上させる。
論文 参考訳(メタデータ) (2024-04-18T15:47:00Z) - One-Step Diffusion Distillation via Deep Equilibrium Models [64.11782639697883]
本稿では,拡散モデルを初期雑音から得られた画像に直接蒸留する簡易かつ効果的な方法を提案する。
本手法は,拡散モデルからノイズ/イメージペアのみによる完全オフライントレーニングを可能にする。
GET は FID スコアの点で 5 倍の ViT と一致するので,DEC アーキテクチャがこの能力に不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-12T07:28:40Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - BOOT: Data-free Distillation of Denoising Diffusion Models with
Bootstrapping [64.54271680071373]
拡散モデルは多様な画像を生成する優れた可能性を示している。
知識蒸留は、推論ステップの数を1つか数に減らすための治療法として最近提案されている。
本稿では,効率的なデータフリー蒸留アルゴリズムにより限界を克服するBOOTと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T20:30:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。