論文の概要: DICE: Disentangling Artist Style from Content via Contrastive Subspace Decomposition in Diffusion Models
- arxiv url: http://arxiv.org/abs/2602.08059v1
- Date: Sun, 08 Feb 2026 17:06:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.958646
- Title: DICE: Disentangling Artist Style from Content via Contrastive Subspace Decomposition in Diffusion Models
- Title(参考訳): DICE:拡散モデルにおけるコントラスト部分空間分解によるアーティストスタイルの分離
- Authors: Tong Zhang, Ru Zhang, Jianyi Liu,
- Abstract要約: DICEは、オンザフライのアーティストスタイルの消去のためのトレーニング不要のフレームワークである。
我々は、潜在空間におけるスタイルと非スタイルの特徴を区別するためにモデルを強制するために、対照的な三重項を構築する。
実験により,DICEはスタイル消去の完全性とコンテンツ完全性維持のバランスが良好であることを実証した。
- 参考スコア(独自算出の注目度): 29.817934937899196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent proliferation of diffusion models has made style mimicry effortless, enabling users to imitate unique artistic styles without authorization. In deployed platforms, this raises copyright and intellectual-property risks and calls for reliable protection. However, existing countermeasures either require costly weight editing as new styles emerge or rely on an explicitly specified editing style, limiting their practicality for deployment-side safety. To address this challenge, we propose DICE (Disentanglement of artist Style from Content via Contrastive Subspace Decomposition), a training-free framework for on-the-fly artist style erasure. Unlike style editing that require an explicitly specified replacement style, DICE performs style purification, removing the artist's characteristics while preserving the user-intended content. Our core insight is that a model cannot truly comprehend the artist style from a single text or image alone. Consequently, we abandon the traditional paradigm of identifying style from isolated samples. Instead, we construct contrastive triplets to compel the model to distinguish between style and non-style features in the latent space. By formalizing this disentanglement process as a solvable generalized eigenvalue problem, we achieve precise identification of the style subspace. Furthermore, we introduce an Adaptive Attention Decoupling Editing strategy dynamically assesses the style concentration of each token and performs differential suppression and content enhancement on the QKV vectors. Extensive experiments demonstrate that DICE achieves a superior balance between the thoroughness of style erasure and the preservation of content integrity. DICE introduces an additional overhead of only 3 seconds to disentangle style, providing a practical and efficient technique for curbing style mimicry.
- Abstract(参考訳): 近年の拡散モデルの普及により、スタイルの模倣は難しくなり、ユーザーは許可なくユニークな芸術スタイルを模倣することができるようになった。
デプロイされたプラットフォームでは、これは著作権と知的財産権のリスクを高め、信頼できる保護を要求する。
しかし、既存の対策は、新しいスタイルが出現するにつれてコストのかかる重み付けを必要とするか、明示的な編集スタイルに依存しているため、デプロイ側の安全性に対する実用性を制限する必要がある。
この課題に対処するため、本研究では、オンザフライのアーティストスタイル消去のためのトレーニングフリーフレームワークであるDICE(Disentanglement of Artist Style from Content via Contrastive Subspace Decomposition)を提案する。
明示的な代替スタイルを必要とするスタイル編集とは異なり、DICEはスタイル浄化を行い、ユーザーが意図したコンテンツを保存しながらアーティストの特徴を除去する。
私たちの中核的な洞察は、一つのテキストや画像だけでは、モデルがアーティストのスタイルを真に理解できないということです。
その結果、孤立したサンプルからスタイルを識別する伝統的なパラダイムを放棄した。
代わりに、潜在空間におけるスタイルと非スタイルの特徴を区別するためにモデルを強制するために、対照的な三重項を構築します。
この解法を一般化された固有値問題として定式化することにより、スタイル部分空間の正確な同定を実現する。
さらに,各トークンのスタイル濃度を動的に評価し,QKVベクトル上で差分抑制と内容強調を行う適応型注意疎結合編集手法を提案する。
広汎な実験により、DICEは、スタイル消去の徹底性とコンテンツ完全性の保存とのバランスが優れていることが示された。
DICEは、スタイルをアンタングルするためにわずか3秒のオーバーヘッドを導入し、スタイルの模倣を抑えるための実用的で効率的なテクニックを提供する。
関連論文リスト
- StyleProtect: Safeguarding Artistic Identity in Fine-tuned Diffusion Models [0.8811927506272431]
拡散に基づくアプローチは、悪意のあるエクスプローラーが安価に芸術的なスタイルを再現することを可能にする。
このことが、スタイルの模倣から美術品を保護する方法の必要性と探究の高まりにつながった。
そこで我々は,高効率かつ軽量な保護戦略であるStyleProtectを導入し,微調整拡散モデルに対する効果的なスタイル防御を実現する。
論文 参考訳(メタデータ) (2025-09-17T05:39:34Z) - SubZero: Composing Subject, Style, and Action via Zero-Shot Personalization [46.75550543879637]
拡散モデルは、主題やスタイルのパーソナライズされた構成を含む、生成的なタスクにますます人気がある。
SubZeroは、どんなスタイルでも主題を生成し、微調整を必要とせずにアクションを実行する新しいフレームワークである。
提案手法は,最先端の作業に適した手法であるが,課題,スタイル,動作構成など,最先端の作業よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2025-02-27T01:33:28Z) - IntroStyle: Training-Free Introspective Style Attribution using Diffusion Features [89.95303251220734]
スタイル帰属問題を解決するための学習自由フレームワークを提案する。
IntroStyleはスタイル属性の最先端モデルよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-12-19T01:21:23Z) - DiffuseST: Unleashing the Capability of the Diffusion Model for Style Transfer [13.588643982359413]
スタイル転送は、スタイル画像の芸術的表現をコンテンツ画像の構造情報と融合させることを目的としている。
既存の方法は特定のネットワークを訓練したり、事前訓練されたモデルを使ってコンテンツやスタイルの特徴を学習する。
本稿では,テキスト埋め込みと空間的特徴を組み合わせた,新しい学習不要なスタイル伝達手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:42:43Z) - DiffArtist: Towards Structure and Appearance Controllable Image Stylization [35.59051707152096]
textbfDiffArtistは、構造と外観スタイルの強さの両方をきめ細かな同時制御する最初の2Dスタイリング方法である。
解析の結果,DiffArtistは最先端の手法と比較して,スタイルの忠実さと二重制御性が優れていることがわかった。
論文 参考訳(メタデータ) (2024-07-22T17:58:05Z) - ArtWeaver: Advanced Dynamic Style Integration via Diffusion Model [73.95608242322949]
Stylized Text-to-Image Generation (STIG)は、テキストプロンプトとスタイル参照画像から画像を生成することを目的としている。
我々は、事前訓練された安定拡散を利用して、誤解釈スタイルや一貫性のない意味論といった課題に対処する新しいフレームワーク、ArtWeaverを提案する。
論文 参考訳(メタデータ) (2024-05-24T07:19:40Z) - HiCAST: Highly Customized Arbitrary Style Transfer with Adapter Enhanced
Diffusion Models [84.12784265734238]
Arbitrary Style Transfer (AST)の目標は、あるスタイル参照の芸術的特徴を所定の画像/ビデオに注入することである。
各種のセマンティックな手がかりに基づいてスタイリング結果を明示的にカスタマイズできるHiCASTを提案する。
新たな学習目標をビデオ拡散モデルトレーニングに活用し,フレーム間の時間的一貫性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-01-11T12:26:23Z) - StyleMeUp: Towards Style-Agnostic Sketch-Based Image Retrieval [119.03470556503942]
クロスモーダルマッチング問題は通常、写真とスケッチのモダリティ間で共有されるセマンティックコンテンツを保存する共同埋め込み空間を学習することによって解決される。
効果的なモデルには、このスタイルの多様性を明確に説明する必要がある。
我々のモデルは、モデム間で共有されるセマンティックコンテンツだけでなく、目に見えないユーザースタイルにも適応できるので、モデルは真に不可知的です。
論文 参考訳(メタデータ) (2021-03-29T15:44:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。