論文の概要: Paint by Word
- arxiv url: http://arxiv.org/abs/2103.10951v1
- Date: Fri, 19 Mar 2021 17:59:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 14:40:42.615279
- Title: Paint by Word
- Title(参考訳): 言葉で絵を描く
- Authors: David Bau, Alex Andonian, Audrey Cui, YeonHwan Park, Ali Jahanian,
Aude Oliva, Antonio Torralba
- Abstract要約: ゼロショットイメージペインティングの問題点について検討する。
具体色や意味概念の有限集合のみを用いて画像に修正を施す代わりに、オープンフルテキスト記述に基づいてセマンティックペイントを作成する方法を聞く。
本手法は,実画像の最先端生成モデルと最先端テキスト画像意味類似性ネットワークを組み合わせたものである。
- 参考スコア(独自算出の注目度): 70.31564918390252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the problem of zero-shot semantic image painting. Instead of
painting modifications into an image using only concrete colors or a finite set
of semantic concepts, we ask how to create semantic paint based on open
full-text descriptions: our goal is to be able to point to a location in a
synthesized image and apply an arbitrary new concept such as "rustic" or
"opulent" or "happy dog." To do this, our method combines a state-of-the art
generative model of realistic images with a state-of-the-art text-image
semantic similarity network. We find that, to make large changes, it is
important to use non-gradient methods to explore latent space, and it is
important to relax the computations of the GAN to target changes to a specific
region. We conduct user studies to compare our methods to several baselines.
- Abstract(参考訳): ゼロショットイメージペインティングの問題点について検討する。
具体的色や有限のセマンティックな概念のみを用いて画像に修正を描く代わりに、オープンなフルテキスト記述に基づいてセマンティックなペンキを作る方法を尋ねる: 私たちのゴールは、合成された画像の場所を指して、"ラスティック"や"オプレント"、"ハッピードッグ"といった任意の新しい概念を適用することである。
そこで本手法では,現実的な画像の最先端生成モデルと最先端のテキスト画像意味的類似性ネットワークを組み合わせる。
大きな変更を行うには、潜在空間を探索するために非勾配法を用いることが重要であり、ganの計算を緩和して特定の領域への変更を目標とすることが重要である。
提案手法を複数のベースラインと比較するために,ユーザスタディを実施している。
関連論文リスト
- Beyond Color and Lines: Zero-Shot Style-Specific Image Variations with Coordinated Semantics [3.9717825324709413]
スタイルは、主に色、ブラシストローク、照明といった芸術的要素の観点から検討されてきた。
本研究では,コーディネート・セマンティクスを用いた画像変化のためのゼロショット・スキームを提案する。
論文 参考訳(メタデータ) (2024-10-24T08:34:57Z) - Edge Guided GANs with Multi-Scale Contrastive Learning for Semantic
Image Synthesis [139.2216271759332]
本稿では,難解なセマンティック画像合成タスクのための新しいECGANを提案する。
セマンティックラベルは詳細な構造情報を提供しておらず、局所的な詳細や構造を合成することは困難である。
畳み込み、ダウンサンプリング、正規化といった広く採用されているCNN操作は、通常、空間分解能の損失を引き起こす。
本稿では,同じセマンティッククラスに属する画素埋め込みを強制して,より類似した画像コンテンツを生成することを目的とした,新しいコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-22T14:17:19Z) - Word-As-Image for Semantic Typography [41.380457098839926]
単語・アズ・イメージ(Word-as-image)は、単語のイラストが単語の意味を視覚化するセマンティック・タイポグラフィー技法である。
本稿では,単語・アズ・イメージのイラストを自動生成する手法を提案する。
論文 参考訳(メタデータ) (2023-03-03T09:59:25Z) - Boosting Image Outpainting with Semantic Layout Prediction [18.819765707811904]
我々は、画像ドメインの代わりにセマンティックセグメンテーションドメイン内の領域を拡張するために、GANを訓練する。
別のGANモデルは、拡張されたセマンティックレイアウトに基づいて実際の画像を合成するように訓練されている。
我々のアプローチは意味的な手がかりをより容易に扱えるので、複雑なシナリオではよりうまく機能します。
論文 参考訳(メタデータ) (2021-10-18T13:09:31Z) - Context-Aware Image Inpainting with Learned Semantic Priors [100.99543516733341]
欠落した内容を推定するために意味的に意味のある前文タスクを導入する。
本研究では,グローバルなセマンティクスと局所的な特徴を適応的に統合した文脈認識型画像インパインティングモデルを提案する。
論文 参考訳(メタデータ) (2021-06-14T08:09:43Z) - Image Inpainting Guided by Coherence Priors of Semantics and Textures [62.92586889409379]
セマンティクスとテクスチャ間のコヒーレンスプリエンスを導入することにより、セマンティクス的な方法で別々のテクスチャを完成させることに集中できる。
また,全体構造と詳細なテクスチャの観点から,セマンティクスとインペインテッドイメージの一貫性を制約する2つのコヒーレンス損失を提案する。
論文 参考訳(メタデータ) (2020-12-15T02:59:37Z) - Controllable Image Synthesis via SegVAE [89.04391680233493]
セマンティックマップは条件付き画像生成の中間表現として一般的に使用される。
本研究では,所望のカテゴリからなるラベルセットを与えられたセマンティックマップの生成を特に対象とする。
提案するフレームワークSegVAEは,条件付き変分オートエンコーダを用いて,セマンティックマップを反復的に合成する。
論文 参考訳(メタデータ) (2020-07-16T15:18:53Z) - Words as Art Materials: Generating Paintings with Sequential GANs [8.249180979158815]
大規模な分散データセット上での芸術画像の生成について検討する。
このデータセットには、形状、色、内容など、バリエーションのあるイメージが含まれている。
本稿では,逐次生成適応型ネットワークモデルを提案する。
論文 参考訳(メタデータ) (2020-07-08T19:17:14Z) - Cross-domain Correspondence Learning for Exemplar-based Image
Translation [59.35767271091425]
本稿では,異なる領域の入力からフォトリアリスティックな画像を合成する,例題に基づく画像翻訳のためのフレームワークを提案する。
出力は、例において意味的に対応するオブジェクトと整合したスタイル(例えば、色、テクスチャ)を持つ。
本手法は画像品質の面で最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-04-12T09:10:57Z) - Guidance and Evaluation: Semantic-Aware Image Inpainting for Mixed
Scenes [54.836331922449666]
本稿では,SGE-Net(Semantic Guidance and Evaluation Network)を提案する。
セマンティックセグメンテーションマップをインペイントの各尺度のガイダンスとして利用し、そこで位置依存推論を再評価する。
混合シーンの現実画像に対する実験により,提案手法が最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-03-15T17:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。