論文の概要: SCAdapter: Content-Style Disentanglement for Diffusion Style Transfer
- arxiv url: http://arxiv.org/abs/2512.12963v1
- Date: Mon, 15 Dec 2025 04:02:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.524491
- Title: SCAdapter: Content-Style Disentanglement for Diffusion Style Transfer
- Title(参考訳): SCAdapter:拡散型転送のためのコンテンツスタイルの異方性
- Authors: Luan Thanh Trinh, Kenji Doi, Atsuki Osanai,
- Abstract要約: SCAdapterは、コンテンツとスタイル機能を分離し統合する新しいテクニックです。
私たちのキーとなるイノベーションは、コンテンツイメージやスタイル要素から純粋コンテンツを体系的に抽出し、真の転送を保証することです。
- 参考スコア(独自算出の注目度): 0.9558392439655014
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have emerged as the leading approach for style transfer, yet they struggle with photo-realistic transfers, often producing painting-like results or missing detailed stylistic elements. Current methods inadequately address unwanted influence from original content styles and style reference content features. We introduce SCAdapter, a novel technique leveraging CLIP image space to effectively separate and integrate content and style features. Our key innovation systematically extracts pure content from content images and style elements from style references, ensuring authentic transfers. This approach is enhanced through three components: Controllable Style Adaptive Instance Normalization (CSAdaIN) for precise multi-style blending, KVS Injection for targeted style integration, and a style transfer consistency objective maintaining process coherence. Comprehensive experiments demonstrate SCAdapter significantly outperforms state-of-the-art methods in both conventional and diffusion-based baselines. By eliminating DDIM inversion and inference-stage optimization, our method achieves at least $2\times$ faster inference than other diffusion-based approaches, making it both more effective and efficient for practical applications.
- Abstract(参考訳): 拡散モデルはスタイル伝達の先駆的なアプローチとして現れてきたが、フォトリアリスティック転送に苦慮し、絵のような結果や詳細なスタイル要素の欠如をしばしば生んでいる。
現在の方法では、オリジナルのコンテンツスタイルやスタイル参照コンテンツ機能からの不要な影響に不適切な対処がなされている。
私たちは、CLIPイメージ空間を活用して、コンテンツとスタイル機能を効果的に分離し統合する新しい技術であるSCAdapterを紹介します。
私たちのキーとなるイノベーションは、コンテンツイメージやスタイル要素から純粋コンテンツを体系的に抽出し、真の転送を保証することです。
このアプローチは、正確なマルチスタイルブレンディングのための制御可能なスタイル適応インスタンス正規化(CSAdaIN)、ターゲットとするスタイル統合のためのKVSインジェクション、プロセスコヒーレンスを維持するためのスタイル転送整合性という3つのコンポーネントによって強化されている。
総合的な実験により、SCAdapterは従来のベースラインと拡散ベースのベースラインの両方で最先端の手法を大幅に上回っている。
DDIMのインバージョンと推論ステージの最適化をなくすことにより,本手法は他の拡散に基づく手法よりも少なくとも2ドル以上高速な推論を実現し,実用アプリケーションにおいてより効率的かつ効率的に行うことができる。
関連論文リスト
- Inversion-Free Style Transfer with Dual Rectified Flows [57.02757226679549]
本稿では,2つの修正フローに基づく新しいテキスト変換自由なスタイル転送フレームワークを提案する。
提案手法は,コンテントとスタイルのトラジェクトリを並列に予測し,動的中間点を通して融合する。
様々なスタイルやコンテンツにまたがる一般化を実証し、効果的かつ効率的なスタイル転送パイプラインを提供する。
論文 参考訳(メタデータ) (2025-11-26T02:28:51Z) - DiffuseST: Unleashing the Capability of the Diffusion Model for Style Transfer [13.588643982359413]
スタイル転送は、スタイル画像の芸術的表現をコンテンツ画像の構造情報と融合させることを目的としている。
既存の方法は特定のネットワークを訓練したり、事前訓練されたモデルを使ってコンテンツやスタイルの特徴を学習する。
本稿では,テキスト埋め込みと空間的特徴を組み合わせた,新しい学習不要なスタイル伝達手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:42:43Z) - D2Styler: Advancing Arbitrary Style Transfer with Discrete Diffusion Methods [2.468658581089448]
D$2$Styler (Discrete Diffusion Styler) と呼ばれる新しいフレームワークを提案する。
本手法では,アダプティブインスタンス正規化(AdaIN)機能を逆拡散過程のコンテキストガイドとして用いる。
実験により、D$2$Stylerは高品質なスタイル変換画像を生成することが示された。
論文 参考訳(メタデータ) (2024-08-07T05:47:06Z) - InstantStyle-Plus: Style Transfer with Content-Preserving in Text-to-Image Generation [4.1177497612346]
スタイル転送(Style Transfer)は、視覚的なスタイルを取り入れながら、オリジナルの本質を維持するイメージを作成するために設計された革新的なプロセスである。
InstantStyle-Plusは、ターゲットスタイルをシームレスに統合しながら、オリジナルコンテンツの整合性を優先するアプローチである。
論文 参考訳(メタデータ) (2024-06-30T18:05:33Z) - ArtWeaver: Advanced Dynamic Style Integration via Diffusion Model [73.95608242322949]
Stylized Text-to-Image Generation (STIG)は、テキストプロンプトとスタイル参照画像から画像を生成することを目的としている。
我々は、事前訓練された安定拡散を利用して、誤解釈スタイルや一貫性のない意味論といった課題に対処する新しいフレームワーク、ArtWeaverを提案する。
論文 参考訳(メタデータ) (2024-05-24T07:19:40Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - DiffStyler: Controllable Dual Diffusion for Text-Driven Image
Stylization [66.42741426640633]
DiffStylerは、拡散された結果の内容とスタイルのバランスを制御するための二重拡散処理アーキテクチャである。
本稿では、逆復調処理をベースとしたコンテンツ画像に基づく学習可能なノイズを提案し、そのスタイリング結果により、コンテンツ画像の構造情報をよりよく保存する。
論文 参考訳(メタデータ) (2022-11-19T12:30:44Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。