論文の概要: Inversion-Free Video Style Transfer with Trajectory Reset Attention Control and Content-Style Bridging
- arxiv url: http://arxiv.org/abs/2503.07363v1
- Date: Mon, 10 Mar 2025 14:18:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:47:42.616054
- Title: Inversion-Free Video Style Transfer with Trajectory Reset Attention Control and Content-Style Bridging
- Title(参考訳): トラジェクトリリセットアテンション制御とコンテンツスタイルブリッジによるインバージョンフリービデオスタイル転送
- Authors: Jiang Lin, Zili Yi,
- Abstract要約: 我々は,高品質なスタイル転送を可能にする新しい手法であるTRAC(Trajectory Reset Attention Control)を導入する。
TRACは、遅延軌跡をリセットし、注意制御を強制することにより、コンテントの一貫性を高める。
画像とビデオの両方の転送に対して,安定的でフレキシブルで効率的なソリューションを提供する,チューニング不要なフレームワークを提案する。
- 参考スコア(独自算出の注目度): 5.501345898413532
- License:
- Abstract: Video style transfer aims to alter the style of a video while preserving its content. Previous methods often struggle with content leakage and style misalignment, particularly when using image-driven approaches that aim to transfer precise styles. In this work, we introduce Trajectory Reset Attention Control (TRAC), a novel method that allows for high-quality style transfer while preserving content integrity. TRAC operates by resetting the denoising trajectory and enforcing attention control, thus enhancing content consistency while significantly reducing the computational costs against inversion-based methods. Additionally, a concept termed Style Medium is introduced to bridge the gap between content and style, enabling a more precise and harmonious transfer of stylistic elements. Building upon these concepts, we present a tuning-free framework that offers a stable, flexible, and efficient solution for both image and video style transfer. Experimental results demonstrate that our proposed framework accommodates a wide range of stylized outputs, from precise content preservation to the production of visually striking results with vibrant and expressive styles.
- Abstract(参考訳): ビデオスタイルの転送は、コンテンツを保存しながらビデオのスタイルを変更することを目的としている。
以前の手法では、特に正確なスタイルの転送を目的としたイメージ駆動アプローチを使用する場合、コンテンツのリークやスタイルの誤調整に悩まされることが多かった。
本稿では,コンテンツ整合性を保ちながら高品質なスタイル転送を可能にする新しい手法であるtrajectory Reset Attention Control (TRAC)を紹介する。
TRACは、遅延軌跡をリセットし、注意制御を強制することにより、コンテントの一貫性を高め、インバージョンベースの手法に対する計算コストを大幅に削減する。
さらに、スタイル・ミディアム(Style Medium)と呼ばれる概念が、内容とスタイルのギャップを埋めるために導入され、より正確で調和の取れたスタイル要素の移動を可能にした。
これらの概念に基づいて、画像とビデオの両方の転送に対して、安定的でフレキシブルで効率的なソリューションを提供する、チューニング不要のフレームワークを提案する。
実験により,本提案フレームワークは,正確なコンテンツ保存から視覚的に印象的な結果の鮮明で表現力のあるスタイルによる生成に至るまで,幅広いスタイルの出力に対応可能であることが示された。
関連論文リスト
- StyleSSP: Sampling StartPoint Enhancement for Training-free Diffusion-based Method for Style Transfer [0.5740526382143176]
学習自由拡散に基づく手法は、スタイル伝達において顕著な成功を収めた。
しかし、トレーニング不要な手法は、オリジナルコンテンツのレイアウト変更やスタイルイメージからのコンテンツのリークに悩まされることが多い。
そこで我々は,スタイルイメージからオリジナルコンテンツのレイアウト変更やコンテンツのリークに対処するための,より良いスタートポイントの獲得を目的としたStyleSSPを提案する。
論文 参考訳(メタデータ) (2025-01-20T07:45:42Z) - UniVST: A Unified Framework for Training-free Localized Video Style Transfer [102.52552893495475]
本稿では拡散モデルに基づく局所化ビデオスタイル転送のための統合フレームワークUniVSTを提案する。
トレーニングを必要とせずに動作し、ビデオ全体にわたってスタイルを転送する既存の拡散方法に対して、明確なアドバンテージを提供する。
論文 参考訳(メタデータ) (2024-10-26T05:28:02Z) - DiffuseST: Unleashing the Capability of the Diffusion Model for Style Transfer [13.588643982359413]
スタイル転送は、スタイル画像の芸術的表現をコンテンツ画像の構造情報と融合させることを目的としている。
既存の方法は特定のネットワークを訓練したり、事前訓練されたモデルを使ってコンテンツやスタイルの特徴を学習する。
本稿では,テキスト埋め込みと空間的特徴を組み合わせた,新しい学習不要なスタイル伝達手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:42:43Z) - ZePo: Zero-Shot Portrait Stylization with Faster Sampling [61.14140480095604]
本稿では,4つのサンプリングステップでコンテンツとスタイルの融合を実現する拡散モデルに基づく,インバージョンフリーなポートレートスタイリングフレームワークを提案する。
本稿では,一貫性機能における冗長な特徴をマージする機能統合戦略を提案し,注意制御の計算負荷を低減させる。
論文 参考訳(メタデータ) (2024-08-10T08:53:41Z) - InstantStyle-Plus: Style Transfer with Content-Preserving in Text-to-Image Generation [4.1177497612346]
スタイル転送(Style Transfer)は、視覚的なスタイルを取り入れながら、オリジナルの本質を維持するイメージを作成するために設計された革新的なプロセスである。
InstantStyle-Plusは、ターゲットスタイルをシームレスに統合しながら、オリジナルコンテンツの整合性を優先するアプローチである。
論文 参考訳(メタデータ) (2024-06-30T18:05:33Z) - DiffStyler: Diffusion-based Localized Image Style Transfer [0.0]
画像スタイル転送は、色、ブラシストローク、形状など、スタイルターゲットの特徴的な特性を持つデジタルイメージを埋め込むことを目的としている。
任意のスタイル転送手法の進歩にもかかわらず、コンテンツセマンティクスとスタイル属性の微妙な均衡は依然として大きな課題である。
本稿ではDiffStylerについて紹介する。DiffStylerは、任意の画像スタイルの効率的な転送を容易にする新しいアプローチである。
論文 参考訳(メタデータ) (2024-03-27T11:19:34Z) - DiffStyler: Controllable Dual Diffusion for Text-Driven Image
Stylization [66.42741426640633]
DiffStylerは、拡散された結果の内容とスタイルのバランスを制御するための二重拡散処理アーキテクチャである。
本稿では、逆復調処理をベースとしたコンテンツ画像に基づく学習可能なノイズを提案し、そのスタイリング結果により、コンテンツ画像の構造情報をよりよく保存する。
論文 参考訳(メタデータ) (2022-11-19T12:30:44Z) - StyTr^2: Unbiased Image Style Transfer with Transformers [59.34108877969477]
イメージスタイル転送の目的は、オリジナルコンテンツを維持しながら、スタイル参照によってガイドされた芸術的特徴を持つ画像をレンダリングすることである。
従来のニューラルスタイルの転送法は通常バイアスを受けており、コンテントリークは、同じ参照画像でスタイル転送プロセスの何回かの実行によって観察することができる。
我々は、この重要な問題に対処するために、トランスフォーマーベースのアプローチ、すなわちStyTr2を提案する。
論文 参考訳(メタデータ) (2021-05-30T15:57:09Z) - Arbitrary Video Style Transfer via Multi-Channel Correlation [84.75377967652753]
本稿では,マルチチャネル補正ネットワーク(MCCNet)を提案する。
MCCNetは、スタイルとコンテンツドメインの機能空間で直接動作する。
MCCが生成した出力は所望のスタイルパターンを含む特徴であり、鮮やかなスタイルのテクスチャでさらに画像にデコードできる。
論文 参考訳(メタデータ) (2020-09-17T01:30:46Z) - Parameter-Free Style Projection for Arbitrary Style Transfer [64.06126075460722]
本稿では,パラメータフリー,高速,効果的なコンテンツスタイル変換のための特徴レベル変換手法であるStyle Projectionを提案する。
本稿では、任意の画像スタイルの転送にスタイル投影を利用するリアルタイムフィードフォワードモデルを提案する。
論文 参考訳(メタデータ) (2020-03-17T13:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。