論文の概要: StyleCLIPDraw: Coupling Content and Style in Text-to-Drawing Synthesis
- arxiv url: http://arxiv.org/abs/2111.03133v1
- Date: Thu, 4 Nov 2021 19:57:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 03:40:49.005631
- Title: StyleCLIPDraw: Coupling Content and Style in Text-to-Drawing Synthesis
- Title(参考訳): StyleCLIPDraw:テキスト-描画合成における内容とスタイルの結合
- Authors: Peter Schaldenbrand, Zhixuan Liu and Jean Oh
- Abstract要約: StyleCLIPDrawはCLIPDrawテキストから描画合成モデルにスタイル損失を追加する。
提案手法はテクスチャと形状の両方でスタイルを捉えることができる。
- 参考スコア(独自算出の注目度): 9.617654472780874
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating images that fit a given text description using machine learning
has improved greatly with the release of technologies such as the CLIP
image-text encoder model; however, current methods lack artistic control of the
style of image to be generated. We introduce StyleCLIPDraw which adds a style
loss to the CLIPDraw text-to-drawing synthesis model to allow artistic control
of the synthesized drawings in addition to control of the content via text.
Whereas performing decoupled style transfer on a generated image only affects
the texture, our proposed coupled approach is able to capture a style in both
texture and shape, suggesting that the style of the drawing is coupled with the
drawing process itself. More results and our code are available at
https://github.com/pschaldenbrand/StyleCLIPDraw
- Abstract(参考訳): 機械学習を用いたテキスト記述に適合した画像の生成は、CLIP画像テキストエンコーダモデルのような技術のリリースによって大幅に改善されているが、現在の手法では生成する画像のスタイルの芸術的制御が欠如している。
そこで我々は,CLIPDrawテキスト合成モデルにスタイル損失を加えたStyleCLIPDrawを導入し,テキストによるコンテンツ制御に加えて,合成図面の芸術的制御を可能にする。
生成した画像上でデカップリングされたスタイル転送を行うことはテクスチャのみに影響を及ぼすが,本提案手法はテクスチャと形状の両方のスタイルをキャプチャし,描画のスタイルが描画プロセス自体と結合していることを示す。
さらなる結果とコードはhttps://github.com/pschaldenbrand/StyleCLIPDrawで公開されています。
関連論文リスト
- Zero-Painter: Training-Free Layout Control for Text-to-Image Synthesis [63.757624792753205]
レイアウト条件のテキスト-画像合成のためのZero-Painterを提案する。
本手法では,オブジェクトマスクと個々の記述とグローバルテキストプロンプトを組み合わせることで,忠実度の高い画像を生成する。
論文 参考訳(メタデータ) (2024-06-06T13:02:00Z) - StyleCrafter: Enhancing Stylized Text-to-Video Generation with Style Adapter [78.75422651890776]
StyleCrafterは、トレーニング済みのT2Vモデルをスタイルコントロールアダプタで拡張する汎用的な方法である。
コンテンツスタイルのゆがみを促進するため,テキストプロンプトからスタイル記述を取り除き,参照画像のみからスタイル情報を抽出する。
StyleCrafterは、テキストの内容と一致し、参照画像のスタイルに似た高品質なスタイリングビデオを効率よく生成する。
論文 参考訳(メタデータ) (2023-12-01T03:53:21Z) - MOSAIC: Multi-Object Segmented Arbitrary Stylization Using CLIP [0.0]
テキストによって駆動されるスタイル転送は、実際のスタイルイメージを収集することなく、創造的に画像をスタイリングするための新しいパスを舗装した。
入力プロンプトから抽出したコンテキストに基づいて、画像内の異なるオブジェクトにスタイルを適用することができるCLIP(MOSAIC)を用いたマルチオブジェクト分割任意スティル化手法を提案する。
本手法は任意のオブジェクトやスタイルに拡張可能であり,最先端の手法と比較して高品質な画像を生成することができる。
論文 参考訳(メタデータ) (2023-09-24T18:24:55Z) - Visual Captioning at Will: Describing Images and Videos Guided by a Few
Stylized Sentences [49.66987347397398]
Few-Shot Stylized Visual Captioningは,任意のスタイルでキャプションを生成することを目的としている。
本稿では,条件付きエンコーダ-デコーダ言語モデルとビジュアルプロジェクションモジュールを用いたFS-StyleCapというフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-31T04:26:01Z) - A Fast Text-Driven Approach for Generating Artistic Content [11.295288894403754]
ビジュアルアートを生成するための完全なフレームワークを提案する。
改善されたバージョンを実装し、様々なディテール、スタイル、構造で幅広い結果を生成する。
結果をさらに高めるため,生成パイプラインに芸術的超解像モジュールを挿入する。
論文 参考訳(メタデータ) (2022-06-22T14:34:59Z) - Interactive Style Transfer: All is Your Palette [74.06681967115594]
本稿では,ユーザが対話的に調和したスタイルのイメージを作成できる,図形的な対話型スタイル転送(IST)手法を提案する。
私たちのISTメソッドは、どこからでもブラシやディップスタイルとして機能し、ターゲットのコンテンツイメージの任意の領域にペイントします。
論文 参考訳(メタデータ) (2022-03-25T06:38:46Z) - APRNet: Attention-based Pixel-wise Rendering Network for Photo-Realistic
Text Image Generation [11.186226578337125]
スタイル誘導テキスト画像生成は、参照画像の外観を模倣してテキスト画像を合成しようとする。
本稿では,スタイル画像の背景と前景の色パターンをコンテンツ画像に転送し,写真リアルテキスト画像を生成することに焦点を当てる。
論文 参考訳(メタデータ) (2022-03-15T07:48:34Z) - StyleCLIPDraw: Coupling Content and Style in Text-to-Drawing Translation [10.357474047610172]
本稿では,ユーザが所望の描画スタイルを指定可能なテキスト記述のためのスタイルドローイング生成手法を提案する。
創作過程において、スタイルと内容が分離できないという芸術理論に触発されて、我々はStyleCLIPDrawとして知られる、結合したアプローチを提案する。
人間の評価に基づいて、StyleCLIPDrawによって生成される画像のスタイルは、シーケンシャルアプローチによって強く好まれる。
論文 参考訳(メタデータ) (2022-02-24T21:03:51Z) - CLIPDraw: Exploring Text-to-Drawing Synthesis through Language-Image
Encoders [0.7734726150561088]
CLIPDrawは、自然言語入力に基づいて新しい描画を合成するアルゴリズムである。
ピクセル画像ではなく、ベクターストローク(ベクトルストローク)上で動作します。
結果はCLIPDrawと他の合成-スルー-最適化法を比較した。
論文 参考訳(メタデータ) (2021-06-28T16:43:26Z) - Language-Driven Image Style Transfer [72.36790598245096]
我々は、テキストでガイドされたコンテンツイメージのスタイルを操作するための新しいタスク、言語駆動型イメージスタイル転送(textttLDIST)を導入する。
識別器は、スタイルイメージの言語とパッチの相関や、変換された結果の相関を考慮し、スタイル命令を共同で埋め込む。
実験により, CLVAは有効であり, textttLDIST 上で超高速に転送された結果が得られた。
論文 参考訳(メタデータ) (2021-06-01T01:58:50Z) - StyleCLIP: Text-Driven Manipulation of StyleGAN Imagery [71.1862388442953]
StyleGAN画像操作のためのテキストベースのインターフェースを開発しています。
まず,ユーザが提案するテキストプロンプトに応答して,CLIPに基づく損失を利用して入力潜時ベクトルを変更する最適化手法を提案する。
次に、与えられた入力画像に対してテキスト誘導の潜時操作ステップを推論し、より高速で安定したテキストベースの操作を可能にする潜時マッパーについて述べる。
論文 参考訳(メタデータ) (2021-03-31T17:51:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。