論文の概要: Name Your Style: An Arbitrary Artist-aware Image Style Transfer
- arxiv url: http://arxiv.org/abs/2202.13562v1
- Date: Mon, 28 Feb 2022 06:21:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 17:30:03.006779
- Title: Name Your Style: An Arbitrary Artist-aware Image Style Transfer
- Title(参考訳): Name Your Style: 任意アーティストを意識した画像スタイル転送
- Authors: Zhi-Song Liu, Li-Wen Wang, Wan-Chi Siu, Vicky Kalogeiton
- Abstract要約: 任意のスタイル転送を制御するために,高度な画像テキストエンコーダを利用するテキスト駆動型画像スタイル転送(TxST)を提案する。
画像テキストモデルからスタイル記述を効果的に抽出するための対照的なトレーニング戦略を導入する。
我々はまた、スタイルやコンテンツの特徴を融合するクロスアテンションを探求する、新しく効率的なアテンションモジュールを提案する。
- 参考スコア(独自算出の注目度): 38.41608300670523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image style transfer has attracted widespread attention in the past few
years. Despite its remarkable results, it requires additional style images
available as references, making it less flexible and inconvenient. Using text
is the most natural way to describe the style. More importantly, text can
describe implicit abstract styles, like styles of specific artists or art
movements. In this paper, we propose a text-driven image style transfer (TxST)
that leverages advanced image-text encoders to control arbitrary style
transfer. We introduce a contrastive training strategy to effectively extract
style descriptions from the image-text model (i.e., CLIP), which aligns
stylization with the text description. To this end, we also propose a novel and
efficient attention module that explores cross-attentions to fuse style and
content features. Finally, we achieve an arbitrary artist-aware image style
transfer to learn and transfer specific artistic characters such as Picasso,
oil painting, or a rough sketch. Extensive experiments demonstrate that our
approach outperforms the state-of-the-art methods on both image and textual
styles. Moreover, it can mimic the styles of one or many artists to achieve
attractive results, thus highlighting a promising direction in image style
transfer.
- Abstract(参考訳): イメージスタイルの転送はここ数年で広く注目を集めている。
その顕著な結果にもかかわらず、参照として利用可能な追加のスタイルイメージが必要であるため、柔軟性が低く不便である。
テキストの使用は、そのスタイルを記述する最も自然な方法です。
さらに重要なことに、テキストは特定のアーティストのスタイルや芸術運動のような暗黙の抽象的なスタイルを記述できる。
本稿では,高度な画像テキストエンコーダを用いて任意のスタイル転送を制御するテキスト駆動型画像転送(TxST)を提案する。
本稿では,テキスト記述とスタイライゼーションを整合させる画像テキストモデル(クリップ)から,スタイル記述を効果的に抽出するための対比学習戦略を提案する。
この目的のために,スタイルやコンテンツの特徴を融合するための横断的注意を探索する,新規で効率的なアテンションモジュールも提案する。
最後に,ピカソや油絵,粗いスケッチなどの芸術的特徴を学習し,伝達するために,任意のアーティスト意識のイメージスタイルの変換を実現する。
広汎な実験により,本手法は画像とテキストの両スタイルにおいて最先端の手法より優れていることが示された。
さらに、1人または多数のアーティストのスタイルを模倣して魅力的な結果を得ることができ、画像スタイルの転送において有望な方向を強調することができる。
関連論文リスト
- MOSAIC: Multi-Object Segmented Arbitrary Stylization Using CLIP [0.0]
テキストによって駆動されるスタイル転送は、実際のスタイルイメージを収集することなく、創造的に画像をスタイリングするための新しいパスを舗装した。
入力プロンプトから抽出したコンテキストに基づいて、画像内の異なるオブジェクトにスタイルを適用することができるCLIP(MOSAIC)を用いたマルチオブジェクト分割任意スティル化手法を提案する。
本手法は任意のオブジェクトやスタイルに拡張可能であり,最先端の手法と比較して高品質な画像を生成することができる。
論文 参考訳(メタデータ) (2023-09-24T18:24:55Z) - DreamStyler: Paint by Style Inversion with Text-to-Image Diffusion
Models [11.164432246850247]
本稿では,芸術的な画像合成のための新しいフレームワークであるDreamStylerを紹介する。
DreamStylerはテキストと画像の合成とスタイル転送の両方に長けている。
コンテンツとスタイルのガイダンスによって、DreamStylerは様々なスタイル参照に対応する柔軟性を示す。
論文 参考訳(メタデータ) (2023-09-13T13:13:29Z) - Any-to-Any Style Transfer: Making Picasso and Da Vinci Collaborate [58.83278629019384]
スタイル転送は、コンテンツ参照のために、ある画像のスタイルを他の画像へのスタイル参照にレンダリングすることを目的としている。
既存のアプローチでは、スタイルイメージの全体的スタイルをグローバルな方法で適用するか、あるいは、スタイルイメージのローカル色とテクスチャを、事前に定義された方法でコンテンツに移行するかのいずれかである。
本稿では,Any-to-Any Style Transferを提案する。Any-to-Any Style Transferは,スタイル画像中の領域のスタイルを対話的に選択し,所定のコンテンツ領域に適用することができる。
論文 参考訳(メタデータ) (2023-04-19T15:15:36Z) - StylerDALLE: Language-Guided Style Transfer Using a Vector-Quantized
Tokenizer of a Large-Scale Generative Model [64.26721402514957]
本論文では,自然言語を用いて抽象芸術スタイルを記述するスタイル転送手法であるStylerDALLEを提案する。
具体的には、非自己回帰的なトークンシーケンス変換として、言語誘導型転送タスクを定式化する。
スタイル情報を組み込むために,CLIPに基づく言語指導による強化学習戦略を提案する。
論文 参考訳(メタデータ) (2023-03-16T12:44:44Z) - Inversion-Based Style Transfer with Diffusion Models [78.93863016223858]
以前の任意の例として誘導された芸術的画像生成法は、しばしば形状変化の制御や要素の伝達に失敗する。
画像のキー情報を効率よく正確に学習できるインバージョンベースのスタイル転送手法(InST)を提案する。
論文 参考訳(メタデータ) (2022-11-23T18:44:25Z) - DiffStyler: Controllable Dual Diffusion for Text-Driven Image
Stylization [66.42741426640633]
DiffStylerは、拡散された結果の内容とスタイルのバランスを制御するための二重拡散処理アーキテクチャである。
本稿では、逆復調処理をベースとしたコンテンツ画像に基づく学習可能なノイズを提案し、そのスタイリング結果により、コンテンツ画像の構造情報をよりよく保存する。
論文 参考訳(メタデータ) (2022-11-19T12:30:44Z) - CLIPstyler: Image Style Transfer with a Single Text Condition [34.24876359759408]
既存のニューラルスタイル転送法では、スタイル画像のテクスチャ情報をコンテンツ画像に転送するために参照スタイル画像が必要である。
そこで本稿では,スタイルイメージを必要とせず,所望のスタイルをテキストで記述した上でのみ,スタイル転送を可能にする新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T09:48:53Z) - Language-Driven Image Style Transfer [72.36790598245096]
我々は、テキストでガイドされたコンテンツイメージのスタイルを操作するための新しいタスク、言語駆動型イメージスタイル転送(textttLDIST)を導入する。
識別器は、スタイルイメージの言語とパッチの相関や、変換された結果の相関を考慮し、スタイル命令を共同で埋め込む。
実験により, CLVAは有効であり, textttLDIST 上で超高速に転送された結果が得られた。
論文 参考訳(メタデータ) (2021-06-01T01:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。