論文の概要: SPAST: Arbitrary Style Transfer with Style Priors via Pre-trained Large-scale Model
- arxiv url: http://arxiv.org/abs/2505.08695v1
- Date: Tue, 13 May 2025 15:54:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.659558
- Title: SPAST: Arbitrary Style Transfer with Style Priors via Pre-trained Large-scale Model
- Title(参考訳): SPAST: 事前学習型大規模モデルによるスタイルプリミティブによる任意型転送
- Authors: Zhanjie Zhang, Quanwei Zhang, Junsheng Luan, Mengyuan Yang, Yun Wang, Lei Zhao,
- Abstract要約: 任意のスタイル転送は、コンテンツイメージの構造を保存し、スタイルイメージのスタイルを保持する、新しいスタイル化されたイメージをレンダリングすることを目的としている。
既存の任意のスタイル転送手法は、小さなモデルまたは訓練済みの大規模モデルに基づいている。
我々はSPASTと呼ばれる新しいフレームワークを提案し、推論時間が少なくて高品質なスタイリング画像を生成する。
- 参考スコア(独自算出の注目度): 10.233013520083606
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given an arbitrary content and style image, arbitrary style transfer aims to render a new stylized image which preserves the content image's structure and possesses the style image's style. Existing arbitrary style transfer methods are based on either small models or pre-trained large-scale models. The small model-based methods fail to generate high-quality stylized images, bringing artifacts and disharmonious patterns. The pre-trained large-scale model-based methods can generate high-quality stylized images but struggle to preserve the content structure and cost long inference time. To this end, we propose a new framework, called SPAST, to generate high-quality stylized images with less inference time. Specifically, we design a novel Local-global Window Size Stylization Module (LGWSSM)tofuse style features into content features. Besides, we introduce a novel style prior loss, which can dig out the style priors from a pre-trained large-scale model into the SPAST and motivate the SPAST to generate high-quality stylized images with short inference time.We conduct abundant experiments to verify that our proposed method can generate high-quality stylized images and less inference time compared with the SOTA arbitrary style transfer methods.
- Abstract(参考訳): 任意のコンテンツとスタイルイメージが与えられた場合、任意のスタイル転送は、コンテンツイメージの構造を保存し、スタイルイメージのスタイルを保持する新しいスタイルイメージをレンダリングすることを目的としている。
既存の任意のスタイル転送手法は、小さなモデルまたは訓練済みの大規模モデルに基づいている。
小さなモデルベースの手法は高品質なスタイリング画像の生成に失敗し、アーティファクトや不調和なパターンをもたらす。
事前訓練された大規模モデルベース手法は高品質なスタイリング画像を生成することができるが、コンテンツ構造と長期の推論時間を維持するのに苦労する。
そこで我々はSPASTと呼ばれる新しいフレームワークを提案し,より少ない推論時間で高品質なスタイリング画像を生成する。
具体的には,新たにLGWSSM (Local-global Window Size Stylization Module) を設計した。
さらに,事前学習した大規模モデルからSPASTに先行するスタイルを抽出し,SPASTを動機付け,短い推論時間で高品質なスタイライズ画像を生成する新しいスタイルの事前損失を導入し,提案手法が高品質なスタイライズ画像を生成することができること,SOTA任意スタイル転送手法と比較して推論時間が少ないことを検証する。
関連論文リスト
- Ada-adapter:Fast Few-shot Style Personlization of Diffusion Model with Pre-trained Image Encoder [57.574544285878794]
Ada-Adapterは拡散モデルの少数ショットスタイルのパーソナライズのための新しいフレームワークである。
提案手法は,単一の参照画像を用いたゼロショット方式の効率的な転送を可能にする。
フラットアートや3Dレンダリング,ロゴデザインなど,さまざまな芸術的スタイルに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-07-08T02:00:17Z) - MuseumMaker: Continual Style Customization without Catastrophic Forgetting [50.12727620780213]
本研究では,一組のカスタマイズスタイルを終末的に追従することで,画像の合成を可能にする方法であるMuseumMakerを提案する。
新しいカスタマイズスタイルに直面すると、新しい画像生成のためのトレーニングデータのスタイルを抽出し学習するスタイル蒸留損失モジュールを開発する。
これは、新しい訓練画像の内容による学習バイアスを最小限に抑え、少数ショット画像によって引き起こされる破滅的な過適合問題に対処することができる。
論文 参考訳(メタデータ) (2024-04-25T13:51:38Z) - HiCAST: Highly Customized Arbitrary Style Transfer with Adapter Enhanced
Diffusion Models [84.12784265734238]
Arbitrary Style Transfer (AST)の目標は、あるスタイル参照の芸術的特徴を所定の画像/ビデオに注入することである。
各種のセマンティックな手がかりに基づいてスタイリング結果を明示的にカスタマイズできるHiCASTを提案する。
新たな学習目標をビデオ拡散モデルトレーニングに活用し,フレーム間の時間的一貫性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-01-11T12:26:23Z) - ArtBank: Artistic Style Transfer with Pre-trained Diffusion Model and
Implicit Style Prompt Bank [9.99530386586636]
アートスタイルの転送は、学習したアートスタイルでコンテンツイメージを再描画することを目的としている。
既存のスタイル転送手法は、小さなモデルベースアプローチと、事前訓練された大規模モデルベースアプローチの2つのカテゴリに分けられる。
本研究では,高度にリアルなスタイライズされた画像を生成するために,アートバンクという新しいスタイル転送フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T05:53:40Z) - DIFF-NST: Diffusion Interleaving For deFormable Neural Style Transfer [27.39248034592382]
変形可能なスタイル転送を実現しつつ,新しいモデルのクラスを用いてスタイル転送を行う。
これらのモデルの先行モデルを活用することで、推論時に新たな芸術的コントロールが公開できることを示す。
論文 参考訳(メタデータ) (2023-07-09T12:13:43Z) - FastCLIPstyler: Optimisation-free Text-based Image Style Transfer Using
Style Representations [0.0]
我々は、任意のテキスト入力に対して単一のフォワードパスで画像をスタイリングできる一般化されたテキストベースの画像スタイル転送モデルであるFastCLIPstylerを提案する。
また、リソース制約のあるデバイスとの互換性のために設計された軽量モデルであるEdgeCLIPstylerも導入する。
論文 参考訳(メタデータ) (2022-10-07T11:16:36Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Drafting and Revision: Laplacian Pyramid Network for Fast High-Quality
Artistic Style Transfer [115.13853805292679]
アートスタイルの転送は、サンプルイメージからコンテンツイメージへのスタイルの移行を目的としている。
図案作成と細部改訂の共通画法に触発されて,ラプラシアンピラミッドネットワーク(LapStyle)という新しいフィードフォワード方式を導入する。
本手法は, 定型的パターンを適切に伝達した高品質なスタイリズド画像をリアルタイムで合成する。
論文 参考訳(メタデータ) (2021-04-12T11:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。