論文の概要: Textoon: Generating Vivid 2D Cartoon Characters from Text Descriptions
- arxiv url: http://arxiv.org/abs/2501.10020v1
- Date: Fri, 17 Jan 2025 08:09:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-20 13:59:40.399890
- Title: Textoon: Generating Vivid 2D Cartoon Characters from Text Descriptions
- Title(参考訳): Textoon: テキスト記述から生き生きとした2Dカートゥーン文字を生成する
- Authors: Chao He, Jianqiang Ren, Liefeng Bo,
- Abstract要約: テキスト記述に基づくLive2Dフォーマットで多種多様な2D漫画のキャラクターを生成する革新的な方法であるTextoonを紹介する。
Textoonは最先端の言語とビジョンモデルを活用して、テキストの意図を理解し、2Dの外観を生成する。
- 参考スコア(独自算出の注目度): 10.925632696992604
- License:
- Abstract: The 2D cartoon style is a prominent art form in digital character creation, particularly popular among younger audiences. While advancements in digital human technology have spurred extensive research into photorealistic digital humans and 3D characters, interactive 2D cartoon characters have received comparatively less attention. Unlike 3D counterparts, which require sophisticated construction and resource-intensive rendering, Live2D, a widely-used format for 2D cartoon characters, offers a more efficient alternative, which allows to animate 2D characters in a manner that simulates 3D movement without the necessity of building a complete 3D model. Furthermore, Live2D employs lightweight HTML5 (H5) rendering, improving both accessibility and efficiency. In this technical report, we introduce Textoon, an innovative method for generating diverse 2D cartoon characters in the Live2D format based on text descriptions. The Textoon leverages cutting-edge language and vision models to comprehend textual intentions and generate 2D appearance, capable of creating a wide variety of stunning and interactive 2D characters within one minute. The project homepage is https://human3daigc.github.io/Textoon_webpage/.
- Abstract(参考訳): 2D漫画スタイルは、デジタルキャラクタ作成において顕著な芸術形式であり、特に若年層の間で人気がある。
デジタルヒューマン技術の進歩は、フォトリアリスティックなデジタル人間と3Dキャラクタの広範な研究に拍車をかけたが、インタラクティブな2D漫画キャラクタは比較的注目を集めていない。
高度な構成とリソース集約的なレンダリングを必要とする3Dとは違って、Live2Dは2D漫画のキャラクターに広く使われているフォーマットであり、完全な3Dモデルを構築する必要なしに3Dの動きをシミュレートする2Dキャラクターをアニメーションできる、より効率的な代替手段を提供する。
さらに、Live2Dは軽量なHTML5 (H5)レンダリングを採用し、アクセシビリティと効率の両方を改善している。
本技術報告では,テキスト記述に基づく多彩な2次元マンガキャラクタをLive2D形式で生成するための革新的手法であるTextoonを紹介する。
Textoonは最先端の言語と視覚モデルを利用してテキストの意図を理解し、2Dの外観を生成する。
プロジェクトのホームページはhttps://human3daigc.github.io/Textoon_webpage/。
関連論文リスト
- VP3D: Unleashing 2D Visual Prompt for Text-to-3D Generation [96.62867261689037]
視覚プロンプト誘導型3次元拡散モデル(VP3D)を提案する。
VP3Dは、テキストから3D生成を促進するために、2D視覚プロンプトの視覚的外観知識を明示的に解放する。
実験の結果,VP3Dの2次元視覚プロンプトは3次元モデルの視覚的外観の学習を著しく容易にすることがわかった。
論文 参考訳(メタデータ) (2024-03-25T17:59:31Z) - Make-It-Vivid: Dressing Your Animatable Biped Cartoon Characters from Text [38.591390310534024]
入力命令に基づく漫画文字の自動テクスチャ設計に着目する。
これはドメイン固有の要件と高品質なデータの欠如にとって難しい。
UVテキストから高品質なテクスチャ生成を可能にする最初の試みとして,Make-ItViviを提案する。
論文 参考訳(メタデータ) (2024-03-25T16:08:04Z) - Make-A-Character: High Quality Text-to-3D Character Generation within
Minutes [28.30067870250642]
本研究では,テキスト記述から3Dアバターを作成するために,Make-A-Character (Mach) というユーザフレンドリーなフレームワークを提案する。
制御可能で現実的で、完全に実現された3Dキャラクタを2分以内で作成するための直感的なアプローチを提供する。
論文 参考訳(メタデータ) (2023-12-24T08:11:39Z) - Control3D: Towards Controllable Text-to-3D Generation [107.81136630589263]
本稿では,手書きスケッチ,すなわちコントロール3Dについてテキストから3D生成条件を提案する。
2次元条件付き拡散モデル(ControlNet)を再構成し、NeRFとしてパラメータ化された3次元シーンの学習を誘導する。
合成3Dシーン上での描画画像のスケッチを直接推定するために,事前学習可能なフォト・ツー・スケッチ・モデルを利用する。
論文 参考訳(メタデータ) (2023-11-09T15:50:32Z) - TADA! Text to Animatable Digital Avatars [57.52707683788961]
TADAはテキスト記述を取り込み、高品質な幾何学とライフスタイルのテクスチャを備えた表現力のある3Dアバターを生産する。
我々は3次元変位とテクスチャマップを備えたSMPL-Xから最適化可能な高分解能ボディモデルを導出した。
我々は、生成した文字の正規表現とRGB画像をレンダリングし、SDSトレーニングプロセスにおけるそれらの潜伏埋め込みを利用する。
論文 参考訳(メタデータ) (2023-08-21T17:59:10Z) - DreamHuman: Animatable 3D Avatars from Text [41.30635787166307]
本研究では,テキスト記述のみから現実的な3次元アバターモデルを生成するDreamHumanを提案する。
我々の3Dモデルは、外観、衣服、肌のトーン、体形が多様であり、一般的なテキストから3Dへのアプローチと、以前のテキストベースの3Dアバタージェネレータを視覚的忠実度で大幅に上回っている。
論文 参考訳(メタデータ) (2023-06-15T17:58:21Z) - Text-guided 3D Human Generation from 2D Collections [69.04031635550294]
本稿では,テクスト誘導型3Dヒューマンジェネレーション(texttT3H)について紹介する。
CCHは、抽出されたファッションセマンティクスを用いたヒューズ合成ヒトのレンダリングに、クロスモーダルアテンションを採用する。
我々はDeepFashionとSHHQで、上着と下着の形状、生地、色を多彩なファッション特性で評価する。
論文 参考訳(メタデータ) (2023-05-23T17:50:15Z) - AG3D: Learning to Generate 3D Avatars from 2D Image Collections [96.28021214088746]
本稿では,2次元画像から現実的な3次元人物の新たな逆生成モデルを提案する。
本手法は, 全身型3Dジェネレータを用いて, 体の形状と変形を捉える。
提案手法は, 従来の3次元・調音認識手法よりも幾何的, 外観的に優れていた。
論文 参考訳(メタデータ) (2023-05-03T17:56:24Z) - HyperStyle3D: Text-Guided 3D Portrait Stylization via Hypernetworks [101.36230756743106]
本論文は,2次元画像の中間表現として,2次元領域と3次元領域を3次元フィールドで橋渡しする3次元GANの成功に着想を得たものである。
本稿では,3次元ポートレートスタイリングのための3次元認識型GANをベースとしたHyperStyle3Dという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-19T07:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。