論文の概要: FastCLIPStyler: Towards fast text-based image style transfer using style
representation
- arxiv url: http://arxiv.org/abs/2210.03461v1
- Date: Fri, 7 Oct 2022 11:16:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 12:39:56.944953
- Title: FastCLIPStyler: Towards fast text-based image style transfer using style
representation
- Title(参考訳): fastclipstyler:スタイル表現を用いたテキストベースの画像転送の高速化
- Authors: Ananda Padhmanabhan Suresh, Sanjana Jain, Pavit Noinongyao, and Ankush
Ganguly
- Abstract要約: 最近、CLIPStylerというモデルが、スタイルの自然言語記述が参照スタイルのイメージを置き換えることを実証した。
ここでは,CLIPStylerと事前学習された純粋視覚に基づくスタイル転送モデルを組み合わせることで,CLIPStylerの推論時間を著しく短縮できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artistic style transfer is usually performed between two images, a style
image and a content image. Recently, a model named CLIPStyler demonstrated that
a natural language description of style could replace the necessity of a
reference style image. They achieved this by taking advantage of the CLIP
model, which can compute the similarity between a text phrase and an image. In
this work, we demonstrate how combining CLIPStyler with a pre-trained, purely
vision-based style transfer model can significantly reduce the inference time
of CLIPStyler. We call this model FastCLIPStyler. We do a qualitative
exploration of the stylised images from both models and argue that our model
also has merits in terms of the visual aesthetics of the generated images.
Finally, we also point out how FastCLIPStyler can be used to further extend
this line of research to create a generalised text-to-style model that does not
require optimisation at inference time, which both CLIPStyler and
FastCLIPStyler do currently.
- Abstract(参考訳): 芸術的なスタイル転送は通常、スタイルイメージとコンテンツイメージの2つのイメージの間で行われる。
近年、CLIPStylerというモデルが、スタイルの自然言語記述が参照スタイルイメージの必要性に取って代わることを示した。
彼らはCLIPモデルを利用して、テキストフレーズと画像の類似性を計算した。
本稿では,CLIPStylerと事前学習された純粋視覚に基づくスタイル転送モデルを組み合わせることで,CLIPStylerの推論時間を著しく短縮できることを示す。
私たちはこのモデルをFastCLIPStylerと呼びます。
両モデルからのスタイリング画像の質的な探索を行い、生成した画像の視覚的美学の観点からも、我々のモデルは有益であると主張している。
最後に、FastCLIPStylerがどのようにしてこの研究線をさらに拡張して、CLIPStylerとFastCLIPStylerが現在行っているように、推論時に最適化を必要としない一般化されたテキスト・ツー・スタイルのモデルを作成することができるかを指摘した。
関連論文リスト
- Ada-adapter:Fast Few-shot Style Personlization of Diffusion Model with Pre-trained Image Encoder [57.574544285878794]
Ada-Adapterは拡散モデルの少数ショットスタイルのパーソナライズのための新しいフレームワークである。
提案手法は,単一の参照画像を用いたゼロショット方式の効率的な転送を可能にする。
フラットアートや3Dレンダリング,ロゴデザインなど,さまざまな芸術的スタイルに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-07-08T02:00:17Z) - StyleMamba : State Space Model for Efficient Text-driven Image Style Transfer [9.010012117838725]
StyleMambaは、テキストプロンプトを対応する視覚スタイルに変換する効率的な画像スタイル転送フレームワークである。
既存のテキストガイドによるスタイリングには、数百のトレーニングイテレーションが必要で、多くのコンピューティングリソースが必要です。
論文 参考訳(メタデータ) (2024-05-08T12:57:53Z) - Rethink Arbitrary Style Transfer with Transformer and Contrastive Learning [11.900404048019594]
本稿では,スタイリング画像の品質向上のための革新的手法を提案する。
まず、コンテンツとスタイルの特徴の整合性を改善する手法であるスタイル一貫性インスタンス正規化(SCIN)を提案する。
さらに,様々なスタイル間の関係を理解するために,インスタンスベースのコントラスト学習(ICL)アプローチを開発した。
論文 参考訳(メタデータ) (2024-04-21T08:52:22Z) - StyleInject: Parameter Efficient Tuning of Text-to-Image Diffusion Models [35.732715025002705]
StyleInject(スタイルインジェクション)は、テキスト・ツー・イメージ・モデルに適した特殊な微調整アプローチである。
入力信号の特性に基づいて視覚特徴のばらつきを調整することで、様々なスタイルに適応する。
これは、コミュニティが調整した様々な高度な生成モデルから学習し、拡張するのに特に有効である。
論文 参考訳(メタデータ) (2024-01-25T04:53:03Z) - Style Aligned Image Generation via Shared Attention [61.121465570763085]
本稿では,一連の生成画像間のスタイルアライメントを確立する技術であるStyleAlignedを紹介する。
拡散過程において、最小限の注意共有を生かして、T2Iモデル内の画像間のスタイル整合性を維持する。
本手法は,多種多様なスタイルやテキストのプロンプトにまたがって評価を行い,高品質で忠実であることを示す。
論文 参考訳(メタデータ) (2023-12-04T18:55:35Z) - Multimodality-guided Image Style Transfer using Cross-modal GAN
Inversion [42.345533741985626]
そこで本研究では,テキストガイダンスに基づいて,より優れたスタイル転送を実現する新しい手法を提案する。
提案手法は複数のソースやモダリティからのスタイル入力を可能にし,マルチモーダル誘導画像スタイル転送(MMIST)を実現する。
具体的には,特定のスタイルに整合したスタイル表現を生成する,新しいクロスモーダルなGANインバージョン手法によりMMISTを実現する。
論文 参考訳(メタデータ) (2023-12-04T06:38:23Z) - StyleCrafter: Enhancing Stylized Text-to-Video Generation with Style Adapter [78.75422651890776]
StyleCrafterは、トレーニング済みのT2Vモデルをスタイルコントロールアダプタで拡張する汎用的な方法である。
コンテンツスタイルのゆがみを促進するため,テキストプロンプトからスタイル記述を取り除き,参照画像のみからスタイル情報を抽出する。
StyleCrafterは、テキストの内容と一致し、参照画像のスタイルに似た高品質なスタイリングビデオを効率よく生成する。
論文 参考訳(メタデータ) (2023-12-01T03:53:21Z) - MOSAIC: Multi-Object Segmented Arbitrary Stylization Using CLIP [0.0]
テキストによって駆動されるスタイル転送は、実際のスタイルイメージを収集することなく、創造的に画像をスタイリングするための新しいパスを舗装した。
入力プロンプトから抽出したコンテキストに基づいて、画像内の異なるオブジェクトにスタイルを適用することができるCLIP(MOSAIC)を用いたマルチオブジェクト分割任意スティル化手法を提案する。
本手法は任意のオブジェクトやスタイルに拡張可能であり,最先端の手法と比較して高品質な画像を生成することができる。
論文 参考訳(メタデータ) (2023-09-24T18:24:55Z) - StylerDALLE: Language-Guided Style Transfer Using a Vector-Quantized
Tokenizer of a Large-Scale Generative Model [64.26721402514957]
本論文では,自然言語を用いて抽象芸術スタイルを記述するスタイル転送手法であるStylerDALLEを提案する。
具体的には、非自己回帰的なトークンシーケンス変換として、言語誘導型転送タスクを定式化する。
スタイル情報を組み込むために,CLIPに基づく言語指導による強化学習戦略を提案する。
論文 参考訳(メタデータ) (2023-03-16T12:44:44Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Parameter-Free Style Projection for Arbitrary Style Transfer [64.06126075460722]
本稿では,パラメータフリー,高速,効果的なコンテンツスタイル変換のための特徴レベル変換手法であるStyle Projectionを提案する。
本稿では、任意の画像スタイルの転送にスタイル投影を利用するリアルタイムフィードフォワードモデルを提案する。
論文 参考訳(メタデータ) (2020-03-17T13:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。