論文の概要: Interactive Cartoonization with Controllable Perceptual Factors
- arxiv url: http://arxiv.org/abs/2212.09555v1
- Date: Mon, 19 Dec 2022 15:45:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 17:49:21.189574
- Title: Interactive Cartoonization with Controllable Perceptual Factors
- Title(参考訳): 制御可能な知覚因子を用いた対話的漫画化
- Authors: Namhyuk Ahn, Patrick Kwon, Jihye Back, Kibeom Hong, Seungkwon Kim
- Abstract要約: 漫画作成プロセスに基づいたテクスチャと色彩の編集機能を備えた新しいソリューションを提案する。
テクスチャデコーダでは、ユーザがストロークスタイルや抽象化を制御し、多様なマンガテクスチャを生成することができるテクスチャコントローラを提案する。
また、多様な色変換を生成するために、ネットワークを誘導するHSV色拡張も導入する。
- 参考スコア(独自算出の注目度): 5.8641445422054765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cartoonization is a task that renders natural photos into cartoon styles.
Previous deep cartoonization methods only have focused on end-to-end
translation, which may hinder editability. Instead, we propose a novel solution
with editing features of texture and color based on the cartoon creation
process. To do that, we design a model architecture to have separate decoders,
texture and color, to decouple these attributes. In the texture decoder, we
propose a texture controller, which enables a user to control stroke style and
abstraction to generate diverse cartoon textures. We also introduce an HSV
color augmentation to induce the networks to generate diverse and controllable
color translation. To the best of our knowledge, our work is the first deep
approach to control the cartoonization at inference while showing profound
quality improvement over to baselines.
- Abstract(参考訳): カルトン化(Cartoonization)は、自然な写真を漫画のスタイルに変換するタスクである。
従来のディープ・マンガライズ手法はエンドツーエンド翻訳のみに焦点を当てており、編集性を妨げる可能性がある。
そこで本研究では,漫画作成プロセスに基づくテクスチャや色彩の編集機能を備えた新しいソリューションを提案する。
そのために、モデルアーキテクチャを設計し、それらの属性を分離するために、デコーダ、テクスチャ、色を分離する。
テクスチャデコーダでは、ユーザがストロークスタイルや抽象化を制御し、多様なマンガテクスチャを生成することができるテクスチャコントローラを提案する。
また、多様な色変換を生成するために、ネットワークを誘導するHSVカラー拡張を導入する。
私たちの知る限りでは、私たちの研究は推論のマンガ化をコントロールし、ベースラインに対する大幅な品質改善を示す最初の深いアプローチです。
関連論文リスト
- Block and Detail: Scaffolding Sketch-to-Image Generation [70.34211439488223]
アーティストの反復的な洗練プロセスと整合する新しいスケッチ・ツー・イメージ・ツールを提案する。
私たちのツールは、ブロックされたストロークをスケッチして、オブジェクトの配置や形を粗く表現し、詳細なストロークを表現して、形やシルエットを洗練します。
反復過程の任意の点において、そのようなスケッチから高忠実度画像を生成するための2パスアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-02-28T07:09:31Z) - Instance-guided Cartoon Editing with a Large-scale Dataset [12.955181769243232]
本稿では,画像中の文字に対する高精度なセグメンテーションマスクを生成するインスタンス認識画像セグメンテーションモデルを提案する。
提案手法は,3D Ken Burns のパララックス効果,テキスト誘導の漫画スタイルの編集,イラストやマンガからの人形アニメーションなど,セグメンテーションに依存した漫画編集の応用を可能にする。
論文 参考訳(メタデータ) (2023-12-04T15:00:15Z) - TADA! Text to Animatable Digital Avatars [57.52707683788961]
TADAはテキスト記述を取り込み、高品質な幾何学とライフスタイルのテクスチャを備えた表現力のある3Dアバターを生産する。
我々は3次元変位とテクスチャマップを備えたSMPL-Xから最適化可能な高分解能ボディモデルを導出した。
我々は、生成した文字の正規表現とRGB画像をレンダリングし、SDSトレーニングプロセスにおけるそれらの潜伏埋め込みを利用する。
論文 参考訳(メタデータ) (2023-08-21T17:59:10Z) - Learning to Incorporate Texture Saliency Adaptive Attention to Image
Cartoonization [20.578335938736384]
マンガ・テクスチュア・サリエンシ・サンプラー (CTSS) モジュールを提案し, トレーニングデータからマンガ・テクスチュア・サリエントパッチを動的にサンプリングする。
大規模な実験により,画像のマンガ化を促進・強化する上で,テクスチャ・サリエンシー適応型学習が重要であることを示す。
論文 参考訳(メタデータ) (2022-08-02T16:45:55Z) - HairCLIP: Design Your Hair by Text and Reference Image [100.85116679883724]
本稿では, 毛髪属性を個別に, 共同で操作できる新しい毛髪編集インタラクションモードを提案する。
画像とテキストの条件を共有埋め込み空間にエンコードし、統一的なヘア編集フレームワークを提案する。
念入りに設計されたネットワーク構造と損失関数により,我々のフレームワークは高品質な毛髪編集を行うことができる。
論文 参考訳(メタデータ) (2021-12-09T18:59:58Z) - White-Box Cartoonization Using An Extended GAN Framework [0.0]
本稿では,既存のGANフレームワークを拡張するために,逆数プロセスによる生成モデルを推定するための新しいフレームワークを提案する。
実世界の写真やビデオから高品質な漫画画像や映像を生成できる、ホワイトボックス制御可能な画像漫画化を開発した。
論文 参考訳(メタデータ) (2021-07-09T17:09:19Z) - Stylized Neural Painting [0.0]
本稿では,鮮明でリアルな絵画を制御可能なスタイルで生成する画像から絵画への翻訳手法を提案する。
実験により,本手法で作成した絵画は,グローバルな外観と局所的なテクスチャの両方において高い忠実度を有することが示された。
論文 参考訳(メタデータ) (2020-11-16T17:24:21Z) - Unsupervised Contrastive Photo-to-Caricature Translation based on
Auto-distortion [49.93278173824292]
Photo-to-caricatureは、スケッチ、鉛筆のストローク、その他の芸術的図面を通じて特徴を誇張するレンダリング画像として、似顔絵を合成することを目的としている。
スタイルレンダリングと幾何学的変形は、フォト・ツー・キャリキュア・トランスフォーメーション・タスクにおいて最も重要な側面である。
教師なしのコントラスト変換アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-10T08:14:36Z) - A deep learning based interactive sketching system for fashion images
design [47.09122395308728]
ファッションスケッチとテクスチャ情報から,多様な高品質な衣料品画像をデザインするインタラクティブシステムを提案する。
このシステムの背後にある大きな課題は、ユーザが提供するテクスチャ情報に基づいて高品質で詳細なテクスチャを生成することである。
特に、テクスチャ化された衣料画像を合成する新しい二色エッジテクスチャ表現と、グレースケールエッジに基づいてシェーディングをレンダリングするシェーディングエンハンサーを提案する。
論文 参考訳(メタデータ) (2020-10-09T07:50:56Z) - Look here! A parametric learning based approach to redirect visual
attention [49.609412873346386]
画像領域を微妙な画像編集によってより注目度の高いものにするための自動手法を提案する。
我々のモデルは、前景および背景画像領域に適用可能な、異なるグローバルパラメトリック変換セットを予測する。
編集により、任意の画像サイズでインタラクティブなレートでの推論が可能になり、簡単に動画に一般化できる。
論文 参考訳(メタデータ) (2020-08-12T16:08:36Z) - Line Art Correlation Matching Feature Transfer Network for Automatic
Animation Colorization [0.0]
色付き参照特徴を学習可能な方法で整列させるための相関マッチング特徴伝達モデル(CMFT)を提案する。
これにより、ジェネレータはディープセマンティックコードから徐々にコンテンツにレイヤーワイドの同期機能を転送できる。
論文 参考訳(メタデータ) (2020-04-14T06:50:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。