論文の概要: Targeted Data Protection for Diffusion Model by Matching Training Trajectory
- arxiv url: http://arxiv.org/abs/2512.10433v1
- Date: Thu, 11 Dec 2025 08:47:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.289794
- Title: Targeted Data Protection for Diffusion Model by Matching Training Trajectory
- Title(参考訳): 学習軌跡のマッチングによる拡散モデルのターゲットデータ保護
- Authors: Hojun Lee, Mijin Koo, Yeji Song, Nojun Kwak,
- Abstract要約: 本稿では,効果的なTDP(Targeted Data Protection)を実現するための最初の方法であるTAFAP(Trajectory Alignment via Fine-tuning with Adrial Perturbations)を紹介する。
訓練が進むにつれて保護効果が容易に希薄になるスナップショットベースの方法とは異なり、TAFAPはデータセットの蒸留にインスパイアされたトラジェクトリマッチングを採用し、微調整を通して永続的で検証可能な変換を強制する。
TAFAPは既存のTDPよりも優れており、高画質を維持しながら目標概念に対する堅牢なリダイレクトを実現している。
- 参考スコア(独自算出の注目度): 27.34374942680402
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in diffusion models have made fine-tuning text-to-image models for personalization increasingly accessible, but have also raised significant concerns regarding unauthorized data usage and privacy infringement. Current protection methods are limited to passively degrading image quality, failing to achieve stable control. While Targeted Data Protection (TDP) offers a promising paradigm for active redirection toward user-specified target concepts, existing TDP attempts suffer from poor controllability due to snapshot-matching approaches that fail to account for complete learning dynamics. We introduce TAFAP (Trajectory Alignment via Fine-tuning with Adversarial Perturbations), the first method to successfully achieve effective TDP by controlling the entire training trajectory. Unlike snapshot-based methods whose protective influence is easily diluted as training progresses, TAFAP employs trajectory-matching inspired by dataset distillation to enforce persistent, verifiable transformations throughout fine-tuning. We validate our method through extensive experiments, demonstrating the first successful targeted transformation in diffusion models with simultaneous control over both identity and visual patterns. TAFAP significantly outperforms existing TDP attempts, achieving robust redirection toward target concepts while maintaining high image quality. This work enables verifiable safeguards and provides a new framework for controlling and tracing alterations in diffusion model outputs.
- Abstract(参考訳): 近年の拡散モデルの発展により、パーソナライズのための微調整されたテキスト・ツー・イメージモデルがアクセスしやすくなっているが、不正なデータの使用やプライバシー侵害に関する重要な懸念も持ち上がっている。
現在の保護方法は、画像品質を受動的に劣化させることに限られており、安定した制御を達成できない。
TDP(Targeted Data Protection)は、ユーザ指定のターゲット概念に対するアクティブなリダイレクトのための、有望なパラダイムを提供する一方で、既存のTDPの試みは、完全な学習力学を考慮できないスナップショットマッチングアプローチによって、制御性の低下に悩まされている。
そこで本研究では,TAFAP(Trajectory Alignment via Fine-tuning with Adversarial Perturbations)を導入する。
訓練が進むにつれて保護効果が容易に希薄になるスナップショットベースの方法とは異なり、TAFAPはデータセットの蒸留にインスパイアされたトラジェクトリマッチングを採用し、微調整を通して永続的で検証可能な変換を強制する。
本手法を広範囲な実験により検証し,自己同一性と視覚的パターンを同時制御した拡散モデルにおける最初の目標変換を実証した。
TAFAPは既存のTDPよりも優れており、高画質を維持しながら目標概念に対する堅牢なリダイレクトを実現している。
この作業は検証可能なセーフガードを可能にし、拡散モデル出力の変化を制御およびトレースするための新しいフレームワークを提供する。
関連論文リスト
- DLADiff: A Dual-Layer Defense Framework against Fine-Tuning and Zero-Shot Customization of Diffusion Models [74.9510349783152]
悪意のあるアクターは、拡散モデルのカスタマイズを利用することができ、人の数または1つのイメージだけで、元のアイデンティティとほぼ同一の合成IDを作成することができる。
本稿では,ファインチューニング法とゼロショット法の両方を保護するためのDual-Layer Anti-Diffusion (DLADiff)を提案する。
論文 参考訳(メタデータ) (2025-11-25T04:35:55Z) - Perturb a Model, Not an Image: Towards Robust Privacy Protection via Anti-Personalized Diffusion Models [32.903448192224644]
拡散モデルの最近の進歩は、アイデンティティやオブジェクトのような特定の主題の高品質な合成を可能にしている。
パーソナライズ技術は、悪意のあるユーザーによって不正なコンテンツを生成するために誤用されることがある。
生成品質を損なうことなく、対象モデルの個人化を効果的に阻害する新規な損失関数であるダイレクトプロテッシブ最適化(DPO)を導入する。
論文 参考訳(メタデータ) (2025-11-03T07:42:05Z) - Boosting Fidelity for Pre-Trained-Diffusion-Based Low-Light Image Enhancement via Condition Refinement [63.54516423266521]
事前学習拡散ベース(PTDB)法は、しばしばコンテンツ忠実さを犠牲にして知覚的リアリズムを高める。
本稿では,事前学習した拡散モデルにおける条件付けのための新しい最適化手法を提案する。
我々のアプローチはプラグアンドプレイであり、より効率的な制御を提供するために既存の拡散ネットワークにシームレスに統合される。
論文 参考訳(メタデータ) (2025-10-20T02:40:06Z) - ScaleWeaver: Weaving Efficient Controllable T2I Generation with Multi-Scale Reference Attention [86.93601565563954]
ScaleWeaverは、高度な視覚的自己回帰(VAR)モデルに基づいて、高忠実で制御可能な生成を実現するために設計されたフレームワークである。
提案された参照注意モジュールは image$rightarrow$condition から不要な注意を排除し、計算コストを削減している。
実験によると、ScaleWeaverは、拡散ベースの方法よりも優れた効率を実現しつつ、高品質な生成と正確な制御を提供する。
論文 参考訳(メタデータ) (2025-10-16T17:00:59Z) - Latent Diffusion Unlearning: Protecting Against Unauthorized Personalization Through Trajectory Shifted Perturbations [18.024767641200064]
本稿では,拡散モデルの潜在空間内で機能するモデルベース摂動戦略を提案する。
本手法は,拡散モデルにおいて,デノナイジング軌道の開始点を変更しながら,デノナイジングとインバージョンを交互に行う。
我々は4つのベンチマークデータセットにアプローチを検証し、最先端の逆攻撃に対する堅牢性を実証する。
論文 参考訳(メタデータ) (2025-10-03T15:18:45Z) - Concept Unlearning by Modeling Key Steps of Diffusion Process [27.387108656476375]
概念アンラーニングは、テキストから画像への拡散モデルが望ましくない視覚コンテンツを生成するために誤用されるのを防ぐために使われてきた。
我々は,キーステップの概念学習(KSCU)を提案し,ターゲット概念へのキーステップでモデルを選択的に微調整する。
例えば、I2Pデータセットでは、KSCUは、未学習のヌード精度が8.3%向上し、FIDは8.4%向上し、全体的なスコアは0.92で、他のSOTAメソッドをほぼ上回っている。
論文 参考訳(メタデータ) (2025-07-09T03:55:58Z) - Orthogonal Projection Subspace to Aggregate Online Prior-knowledge for Continual Test-time Adaptation [67.80294336559574]
連続テスト時間適応(CTTA)は、新しいシナリオに継続的に適応するために、ソース事前訓練されたモデルを必要とするタスクである。
我々は、OoPkと呼ばれるオンライン事前知識を集約する新しいパイプラインOrthogonal Projection Subspaceを提案する。
論文 参考訳(メタデータ) (2025-06-23T18:17:39Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Adaptive Bidirectional Displacement for Semi-Supervised Medical Image Segmentation [11.195959019678314]
整合性学習は、半教師付き医療画像セグメンテーションにおいて、ラベルのないデータに取り組むための中心的な戦略である。
本稿では,上記の課題を解決するための適応的双方向変位法を提案する。
論文 参考訳(メタデータ) (2024-05-01T08:17:43Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。