論文の概要: Inversion-Free Style Transfer with Dual Rectified Flows
- arxiv url: http://arxiv.org/abs/2511.20986v1
- Date: Wed, 26 Nov 2025 02:28:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:58.924615
- Title: Inversion-Free Style Transfer with Dual Rectified Flows
- Title(参考訳): 二重整流流によるインバージョンフリーな流れ伝達
- Authors: Yingying Deng, Xiangyu He, Fan Tang, Weiming Dong, Xucheng Yin,
- Abstract要約: 本稿では,2つの修正フローに基づく新しいテキスト変換自由なスタイル転送フレームワークを提案する。
提案手法は,コンテントとスタイルのトラジェクトリを並列に予測し,動的中間点を通して融合する。
様々なスタイルやコンテンツにまたがる一般化を実証し、効果的かつ効率的なスタイル転送パイプラインを提供する。
- 参考スコア(独自算出の注目度): 57.02757226679549
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Style transfer, a pivotal task in image processing, synthesizes visually compelling images by seamlessly blending realistic content with artistic styles, enabling applications in photo editing and creative design. While mainstream training-free diffusion-based methods have greatly advanced style transfer in recent years, their reliance on computationally inversion processes compromises efficiency and introduces visual distortions when inversion is inaccurate. To address these limitations, we propose a novel \textit{inversion-free} style transfer framework based on dual rectified flows, which tackles the challenge of finding an unknown stylized distribution from two distinct inputs (content and style images), \textit{only with forward pass}. Our approach predicts content and style trajectories in parallel, then fuses them through a dynamic midpoint interpolation that integrates velocities from both paths while adapting to the evolving stylized image. By jointly modeling the content, style, and stylized distributions, our velocity field design achieves robust fusion and avoids the shortcomings of naive overlays. Attention injection further guides style integration, enhancing visual fidelity, content preservation, and computational efficiency. Extensive experiments demonstrate generalization across diverse styles and content, providing an effective and efficient pipeline for style transfer.
- Abstract(参考訳): 画像処理における重要なタスクであるスタイル転送は、リアルなコンテンツを芸術的なスタイルとシームレスにブレンドすることで視覚的に魅力的なイメージを合成し、写真編集やクリエイティブデザインの応用を可能にする。
近年、主流のトレーニングフリー拡散法はスタイル転送が大幅に進歩しているが、計算的反転プロセスへの依存は効率を損なうとともに、逆転が不正確である場合に視覚的歪みをもたらす。
これらの制約に対処するために,2つの異なる入力(コンテンツおよびスタイル画像)から未知のスタイル分布を見つけるという課題に対処する,二重整流に基づく新しい \textit{inversion-free} スタイル転送フレームワークを提案する。
提案手法は,コンテントとスタイルのトラジェクトリを並列に予測し,動的中点補間を通し,両経路からの速度を統合するとともに,進化するスタイリング画像に適応する。
コンテンツ, スタイル, スタイル化された分布を共同でモデル化することにより, 速度場設計は堅牢な融合を実現し, ナイーブオーバーレイの欠点を回避する。
注意注入はさらに、スタイルの統合、視覚的忠実度の向上、コンテンツ保存、計算効率の向上を導く。
広範囲にわたる実験は、様々なスタイルとコンテンツにわたる一般化を実証し、スタイル転送のための効率的かつ効率的なパイプラインを提供する。
関連論文リスト
- Inversion-Free Video Style Transfer with Trajectory Reset Attention Control and Content-Style Bridging [5.501345898413532]
我々は,高品質なスタイル転送を可能にする新しい手法であるTRAC(Trajectory Reset Attention Control)を導入する。
TRACは、遅延軌跡をリセットし、注意制御を強制することにより、コンテントの一貫性を高める。
画像とビデオの両方の転送に対して,安定的でフレキシブルで効率的なソリューションを提供する,チューニング不要なフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-10T14:18:43Z) - ZePo: Zero-Shot Portrait Stylization with Faster Sampling [61.14140480095604]
本稿では,4つのサンプリングステップでコンテンツとスタイルの融合を実現する拡散モデルに基づく,インバージョンフリーなポートレートスタイリングフレームワークを提案する。
本稿では,一貫性機能における冗長な特徴をマージする機能統合戦略を提案し,注意制御の計算負荷を低減させる。
論文 参考訳(メタデータ) (2024-08-10T08:53:41Z) - Style Aligned Image Generation via Shared Attention [61.121465570763085]
本稿では,一連の生成画像間のスタイルアライメントを確立する技術であるStyleAlignedを紹介する。
拡散過程において、最小限の注意共有を生かして、T2Iモデル内の画像間のスタイル整合性を維持する。
本手法は,多種多様なスタイルやテキストのプロンプトにまたがって評価を行い,高品質で忠実であることを示す。
論文 参考訳(メタデータ) (2023-12-04T18:55:35Z) - DiffStyler: Controllable Dual Diffusion for Text-Driven Image
Stylization [66.42741426640633]
DiffStylerは、拡散された結果の内容とスタイルのバランスを制御するための二重拡散処理アーキテクチャである。
本稿では、逆復調処理をベースとしたコンテンツ画像に基づく学習可能なノイズを提案し、そのスタイリング結果により、コンテンツ画像の構造情報をよりよく保存する。
論文 参考訳(メタデータ) (2022-11-19T12:30:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。