論文の概要: Semantics-Preserving Sketch Embedding for Face Generation
- arxiv url: http://arxiv.org/abs/2211.13015v1
- Date: Wed, 23 Nov 2022 15:14:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 15:33:52.348476
- Title: Semantics-Preserving Sketch Embedding for Face Generation
- Title(参考訳): 顔生成のためのセマンティクス保存型スケッチ埋め込み
- Authors: Binxin Yang, Xuejin Chen, Chaoqun Wang, Chi Zhang, Zihan Chen and
Xiaoyan Sun
- Abstract要約: 本稿では,W+空間の高表現力を活用するために,新しいW-W+エンコーダアーキテクチャを提案する。
また、スケッチセマンティック埋め込みのための明示的な中間表現も導入する。
ベクトル化されたスケッチから意味を自動的に抽出する新しいスケッチ意味解釈手法が設計されている。
- 参考スコア(独自算出の注目度): 26.15479367792076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With recent advances in image-to-image translation tasks, remarkable progress
has been witnessed in generating face images from sketches. However, existing
methods frequently fail to generate images with details that are semantically
and geometrically consistent with the input sketch, especially when various
decoration strokes are drawn. To address this issue, we introduce a novel W-W+
encoder architecture to take advantage of the high expressive power of W+ space
and semantic controllability of W space. We introduce an explicit intermediate
representation for sketch semantic embedding. With a semantic feature matching
loss for effective semantic supervision, our sketch embedding precisely conveys
the semantics in the input sketches to the synthesized images. Moreover, a
novel sketch semantic interpretation approach is designed to automatically
extract semantics from vectorized sketches. We conduct extensive experiments on
both synthesized sketches and hand-drawn sketches, and the results demonstrate
the superiority of our method over existing approaches on both
semantics-preserving and generalization ability.
- Abstract(参考訳): 画像から画像への翻訳タスクの最近の進歩により、スケッチから顔画像を生成するのに顕著な進歩が見られた。
しかし、既存の手法では、特に様々な装飾ストロークを描く場合に、入力スケッチと意味的に幾何学的に一致する詳細画像を生成することがしばしば発生する。
この問題に対処するために、W+空間の高表現力とW+空間のセマンティック制御性を利用する新しいW-W+エンコーダアーキテクチャを提案する。
スケッチセマンティック埋め込みのための明示的な中間表現を導入する。
効果的な意味的監督のために失われる意味的特徴により、我々のスケッチ埋め込みは、入力されたスケッチのセマンティクスを合成画像に正確に伝達する。
さらに、ベクトル化されたスケッチから意味を自動的に抽出する新しいスケッチ意味解釈手法が設計されている。
本研究では,合成スケッチと手書きスケッチの両方について広範な実験を行い,セマンティクス保存と一般化の両面で既存の手法よりも優れた方法を示す。
関連論文リスト
- Stylized Face Sketch Extraction via Generative Prior with Limited Data [6.727433982111717]
StyleSketchは、顔画像から高解像度のスタイリングスケッチを抽出する方法である。
事前訓練されたStyleGANの深い特徴の豊富なセマンティクスを用いて、16対の顔とそれに対応するスケッチイメージでスケッチジェネレータを訓練することができる。
論文 参考訳(メタデータ) (2024-03-17T16:25:25Z) - CustomSketching: Sketch Concept Extraction for Sketch-based Image
Synthesis and Editing [21.12815542848095]
大規模なテキスト・ツー・イメージ(T2I)モデルのパーソナライズ技術により、ユーザーは参照画像から新しい概念を組み込むことができる。
既存の手法は主にテキスト記述に依存しており、カスタマイズされた画像の制御が制限されている。
スケッチを直感的で汎用的な表現として識別し,このような制御を容易にする。
論文 参考訳(メタデータ) (2024-02-27T15:52:59Z) - SketchDreamer: Interactive Text-Augmented Creative Sketch Ideation [111.2195741547517]
画像の画素表現に基づいて訓練されたテキスト条件付き拡散モデルを用いて,制御されたスケッチを生成する手法を提案する。
我々の目標は、プロでないユーザにスケッチを作成させ、一連の最適化プロセスを通じて物語をストーリーボードに変換することです。
論文 参考訳(メタデータ) (2023-08-27T19:44:44Z) - Sketch2Saliency: Learning to Detect Salient Objects from Human Drawings [99.9788496281408]
本研究では,スケッチを弱いラベルとして使用して,画像中の有能な物体を検出する方法について検討する。
これを実現するために,与えられた視覚写真に対応する逐次スケッチ座標を生成することを目的としたフォト・ツー・スケッチ生成モデルを提案する。
テストは、私たちの仮説を証明し、スケッチベースの唾液度検出モデルが、最先端技術と比較して、競争力のあるパフォーマンスを提供する方法を明確にします。
論文 参考訳(メタデータ) (2023-03-20T23:46:46Z) - Text-Guided Scene Sketch-to-Photo Synthesis [5.431298869139175]
テキストガイダンスを用いたシーンレベルのスケッチ・ツー・フォト合成手法を提案する。
モデルのトレーニングには,写真の集合から自己教師付き学習を用いる。
実験により,カラー画像から抽出されていないオリジナルスケッチ画像を視覚的品質の高い写真に変換することを確認した。
論文 参考訳(メタデータ) (2023-02-14T08:13:36Z) - DeepFacePencil: Creating Face Images from Freehand Sketches [77.00929179469559]
既存の画像から画像への変換には、大規模なスケッチと画像のデータセットが必要である。
本稿では,手描きスケッチから写真リアルな顔画像を生成するための効果的なツールであるDeepFacePencilを提案する。
論文 参考訳(メタデータ) (2020-08-31T03:35:21Z) - Cross-Modal Hierarchical Modelling for Fine-Grained Sketch Based Image
Retrieval [147.24102408745247]
我々は、これまで見過ごされてきたスケッチのさらなる特性、すなわち、詳細レベルの階層性について研究する。
本稿では,スケッチ固有の階層を育成し,それを利用して,対応する階層レベルでのスケッチと写真とのマッチングを行う新しいネットワークを設計する。
論文 参考訳(メタデータ) (2020-07-29T20:50:25Z) - On Learning Semantic Representations for Million-Scale Free-Hand
Sketches [146.52892067335128]
百万のフリーハンドスケッチのための学習意味表現について研究する。
スケッチを表現するために,デュアルブランチCNNRNNネットワークアーキテクチャを提案する。
ハッシュ検索とゼロショット認識におけるスケッチ指向の意味表現の学習について検討する。
論文 参考訳(メタデータ) (2020-07-07T15:23:22Z) - Deep Generation of Face Images from Sketches [36.146494762987146]
ディープ・イメージ・ツー・イメージの翻訳技術により、フリーハンドスケッチから高速に顔画像を生成することができる。
既存のソリューションはスケッチに過度に適合する傾向にあり、プロのスケッチやエッジマップを入力として必要とします。
本稿では,画像の形状空間を暗黙的にモデル化し,この空間の顔画像を合成し,入力スケッチを近似する手法を提案する。
本手法は,入力スケッチをソフトな制約として使用することにより,粗いスケッチや不完全なスケッチであっても高品質な顔画像を生成することができる。
論文 参考訳(メタデータ) (2020-06-01T16:20:23Z) - Deep Self-Supervised Representation Learning for Free-Hand Sketch [51.101565480583304]
フリーハンドスケッチにおける自己指導型表現学習の課題に対処する。
自己教師型学習パラダイムの成功の鍵は、スケッチ固有の設計にある。
提案手法は最先端の教師なし表現学習法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-03T16:28:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。