論文の概要: White-Box Cartoonization Using An Extended GAN Framework
- arxiv url: http://arxiv.org/abs/2107.04551v1
- Date: Fri, 9 Jul 2021 17:09:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-12 13:55:57.574265
- Title: White-Box Cartoonization Using An Extended GAN Framework
- Title(参考訳): 拡張GANフレームワークを用いたWhite-Box Cartoonization
- Authors: Amey Thakur, Hasan Rizvi, Mega Satish
- Abstract要約: 本稿では,既存のGANフレームワークを拡張するために,逆数プロセスによる生成モデルを推定するための新しいフレームワークを提案する。
実世界の写真やビデオから高品質な漫画画像や映像を生成できる、ホワイトボックス制御可能な画像漫画化を開発した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the present study, we propose to implement a new framework for estimating
generative models via an adversarial process to extend an existing GAN
framework and develop a white-box controllable image cartoonization, which can
generate high-quality cartooned images/videos from real-world photos and
videos. The learning purposes of our system are based on three distinct
representations: surface representation, structure representation, and texture
representation. The surface representation refers to the smooth surface of the
images. The structure representation relates to the sparse colour blocks and
compresses generic content. The texture representation shows the texture,
curves, and features in cartoon images. Generative Adversarial Network (GAN)
framework decomposes the images into different representations and learns from
them to generate cartoon images. This decomposition makes the framework more
controllable and flexible which allows users to make changes based on the
required output. This approach overcomes any previous system in terms of
maintaining clarity, colours, textures, shapes of images yet showing the
characteristics of cartoon images.
- Abstract(参考訳): 本研究では,既存のGANフレームワークを拡張し,実世界の写真やビデオから高品質なマンガ画像や映像を生成するホワイトボックス制御可能な画像の漫画化を開発するための,敵対的なプロセスによる生成モデルを推定するための新しいフレームワークを提案する。
本システムの学習目的は, 表面表現, 構造表現, テクスチャ表現の3つの異なる表現に基づいている。
表面表現は、画像の滑らかな表面を指す。
構造表現はスパースカラーブロックと関連し、ジェネリックコンテンツを圧縮する。
テクスチャ表現は、漫画画像のテクスチャ、曲線、特徴を示す。
Generative Adversarial Network (GAN)フレームワークは、画像を異なる表現に分解し、そこから学習して漫画画像を生成する。
この分解により、フレームワークはより制御可能でフレキシブルになり、ユーザーは必要な出力に基づいて変更できる。
このアプローチは、画像の明快さ、色、テクスチャ、形状を維持できるが、漫画のイメージの特徴は示さないという点で、過去のシステムを克服する。
関連論文リスト
- Neural-Polyptych: Content Controllable Painting Recreation for Diverse Genres [30.83874057768352]
我々は,広汎で高解像度な絵画の作成を容易にするために,ニューラル・ポリプチッチという統一的な枠組みを提案する。
我々は、生成プロセスを2つの部分に分割する、マルチスケールのGANベースのアーキテクチャを設計した。
我々は東洋絵画と西洋絵画の両方の多様なジャンルへのアプローチを検証する。
論文 参考訳(メタデータ) (2024-09-29T12:46:00Z) - Re-Thinking Inverse Graphics With Large Language Models [51.333105116400205]
逆グラフィックス -- イメージを物理変数に反転させ、レンダリングすると観察されたシーンの再現を可能にする -- は、コンピュータビジョンとグラフィックスにおいて根本的な課題である。
LLMを中心とした逆グラフフレームワークである逆グラフ大言語モデル(IG-LLM)を提案する。
我々は、凍結した事前学習されたビジュアルエンコーダと連続的な数値ヘッドを組み込んで、エンドツーエンドのトレーニングを可能にする。
論文 参考訳(メタデータ) (2024-04-23T16:59:02Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - Controlling Geometric Abstraction and Texture for Artistic Images [0.22835610890984162]
本稿では,芸術的画像における幾何学的抽象化とテクスチャのインタラクティブな制御法を提案する。
以前の例に基づくスタイリング手法は、しばしば形状、テクスチャ、色を絡ませるが、画像合成のための生成法は一般的に入力画像について仮定する。
対照的に、我々の全体論的アプローチは、入力を空間的に形状に分解し、画像のテクスチャを構成する高周波詳細のパラメトリック表現により、色とテクスチャの独立制御を可能にする。
論文 参考訳(メタデータ) (2023-07-31T20:37:43Z) - Unsupervised Compositional Concepts Discovery with Text-to-Image
Generative Models [80.75258849913574]
本稿では、異なる画像の集合を考えると、各画像を表す生成概念を発見できるかという逆問題を考える。
本稿では,画像の集合から生成概念を抽出し,絵画やオブジェクト,キッチンシーンからの照明から異なる美術スタイルを分離し,イメージネット画像から得られる画像クラスを発見するための教師なしアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-08T17:02:15Z) - Single-Shot Implicit Morphable Faces with Consistent Texture
Parameterization [91.52882218901627]
本稿では,3次元形態素な顔モデルを構築するための新しい手法を提案する。
本手法は, 最先端手法と比較して, フォトリアリズム, 幾何, 表現精度を向上する。
論文 参考訳(メタデータ) (2023-05-04T17:58:40Z) - Plug-and-Play Diffusion Features for Text-Driven Image-to-Image
Translation [10.39028769374367]
本稿では,画像間翻訳の領域にテキスト・ツー・イメージ合成を取り入れた新しいフレームワークを提案する。
本手法は,事前学習したテキスト・画像拡散モデルのパワーを利用して,対象のテキストに適合する新たな画像を生成する。
論文 参考訳(メタデータ) (2022-11-22T20:39:18Z) - Learning to Incorporate Texture Saliency Adaptive Attention to Image
Cartoonization [20.578335938736384]
マンガ・テクスチュア・サリエンシ・サンプラー (CTSS) モジュールを提案し, トレーニングデータからマンガ・テクスチュア・サリエントパッチを動的にサンプリングする。
大規模な実験により,画像のマンガ化を促進・強化する上で,テクスチャ・サリエンシー適応型学習が重要であることを示す。
論文 参考訳(メタデータ) (2022-08-02T16:45:55Z) - Arbitrary Style Transfer with Structure Enhancement by Combining the
Global and Local Loss [51.309905690367835]
本稿では,グローバルな損失と局所的な損失を組み合わせ,構造拡張を伴う任意のスタイル転送手法を提案する。
実験結果から,視覚効果の優れた高画質画像が生成できることが示唆された。
論文 参考訳(メタデータ) (2022-07-23T07:02:57Z) - Perspective Plane Program Induction from a Single Image [85.28956922100305]
本研究では,自然画像の全体像を推定する逆グラフ問題について検討する。
我々は、この問題を、入力画像の最もよく記述されたカメラポーズとシーン構造を共同で発見するものとして定式化する。
提案するフレームワークであるP3Iは,探索に基づくアルゴリズムと勾配に基づくアルゴリズムを組み合わせて効率よく問題を解く。
論文 参考訳(メタデータ) (2020-06-25T21:18:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。