論文の概要: TeleStyle: Content-Preserving Style Transfer in Images and Videos
- arxiv url: http://arxiv.org/abs/2601.20175v1
- Date: Wed, 28 Jan 2026 02:16:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.731768
- Title: TeleStyle: Content-Preserving Style Transfer in Images and Videos
- Title(参考訳): TeleStyle: 画像とビデオのコンテンツ保存スタイル転送
- Authors: Shiwen Zhang, Xiaoyan Yang, Bojia Zi, Haibin Huang, Chi Zhang, Xuelong Li,
- Abstract要約: 画像とビデオの両方をスタイリングするための軽量モデルであるTeleStyleを提示する。
異なるスタイルの高品質なデータセットをキュレートし、数千の多様性のあるイン・ザ・ワイルドなスタイルのカテゴリを使用してトリプレットを合成した。
TeleStyleは、スタイルの類似性、コンテントの一貫性、美的品質という、3つの中核評価指標で最先端のパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 52.76027947278353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Content-preserving style transfer, generating stylized outputs based on content and style references, remains a significant challenge for Diffusion Transformers (DiTs) due to the inherent entanglement of content and style features in their internal representations. In this technical report, we present TeleStyle, a lightweight yet effective model for both image and video stylization. Built upon Qwen-Image-Edit, TeleStyle leverages the base model's robust capabilities in content preservation and style customization. To facilitate effective training, we curated a high-quality dataset of distinct specific styles and further synthesized triplets using thousands of diverse, in-the-wild style categories. We introduce a Curriculum Continual Learning framework to train TeleStyle on this hybrid dataset of clean (curated) and noisy (synthetic) triplets. This approach enables the model to generalize to unseen styles without compromising precise content fidelity. Additionally, we introduce a video-to-video stylization module to enhance temporal consistency and visual quality. TeleStyle achieves state-of-the-art performance across three core evaluation metrics: style similarity, content consistency, and aesthetic quality. Code and pre-trained models are available at https://github.com/Tele-AI/TeleStyle
- Abstract(参考訳): コンテンツ保存スタイル転送は、コンテンツとスタイル参照に基づいてスタイル化された出力を生成するが、コンテンツとスタイルの特徴が内部表現に固有の絡み合いがあるため、拡散変換器(DiT)にとって重要な課題である。
本稿では,映像と映像の両スタイル化のための軽量で効果的なモデルであるTeleStyleを提案する。
Qwen-Image-Editに基づいて構築されたTeleStyleは、コンテンツ保存とスタイルのカスタマイズにおいて、ベースモデルの堅牢な機能を活用する。
効果的なトレーニングを容易にするため,異なるスタイルの高品質なデータセットをキュレートし,数千の多様なイン・ザ・ワイルドスタイルのカテゴリを用いてさらにトリプレットを合成した。
クリーン(キュレート)とノイズ(合成)のハイブリッドデータセット上でTeleStyleをトレーニングするためのCurriculum Continual Learningフレームワークを導入する。
このアプローチにより、正確な内容の忠実さを損なうことなく、モデルが見えないスタイルに一般化できる。
さらに、時間的一貫性と視覚的品質を高めるために、ビデオ間スタイリングモジュールを導入する。
TeleStyleは、スタイルの類似性、コンテントの一貫性、美的品質という、3つの中核評価指標で最先端のパフォーマンスを実現している。
コードと事前トレーニングされたモデルはhttps://github.com/Tele-AI/TeleStyleで入手できる。
関連論文リスト
- QwenStyle: Content-Preserving Style Transfer with Qwen-Image-Edit [54.11909509184315]
本稿では,Qwen-Image-Editでトレーニングされた最初のコンテンツ保存スタイル転送モデルを提案する。
QwenStyle V1は、スタイルの類似性、コンテントの一貫性、美的品質の3つのコアメトリクスで、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2026-01-08T10:22:51Z) - DreamStyle: A Unified Framework for Video Stylization [18.820518165759403]
ビデオスタイリングのための統合フレームワークDreamStyleを紹介する。
1)テキスト誘導、(2)スタイル誘導、(3)ファーストフレーム誘導ビデオスタイリングをサポートする。
質的および定量的な評価は、DreamStyleが3つのビデオスタイリングタスク全てに適していることを示している。
論文 参考訳(メタデータ) (2026-01-06T07:42:12Z) - StyleMaster: Stylize Your Video with Artistic Generation and Translation [43.808656030545556]
スタイルコントロールはビデオ生成モデルで人気がある。
現在の方法は、しばしば所定のスタイルから遠く離れたビデオを生成し、コンテンツのリークを引き起こし、1つのビデオを所望のスタイルに転送するのに苦労する。
当社のアプローチであるStyleMasterは,スタイルの類似性と時間的コヒーレンスの両方において,大幅な改善を実現しています。
論文 参考訳(メタデータ) (2024-12-10T18:44:08Z) - StyleCrafter: Enhancing Stylized Text-to-Video Generation with Style Adapter [78.75422651890776]
StyleCrafterは、トレーニング済みのT2Vモデルをスタイルコントロールアダプタで拡張する汎用的な方法である。
コンテンツスタイルのゆがみを促進するため,テキストプロンプトからスタイル記述を取り除き,参照画像のみからスタイル情報を抽出する。
StyleCrafterは、テキストの内容と一致し、参照画像のスタイルに似た高品質なスタイリングビデオを効率よく生成する。
論文 参考訳(メタデータ) (2023-12-01T03:53:21Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。