論文の概要: SimpModeling: Sketching Implicit Field to Guide Mesh Modeling for 3D
Animalmorphic Head Design
- arxiv url: http://arxiv.org/abs/2108.02548v1
- Date: Thu, 5 Aug 2021 12:17:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-06 18:15:49.395645
- Title: SimpModeling: Sketching Implicit Field to Guide Mesh Modeling for 3D
Animalmorphic Head Design
- Title(参考訳): Simp Modeling: 3次元モルモフィックヘッド設計のためのガイドメッシュモデリングへのインシシティフィールドのスケッチ
- Authors: Zhongjin Luo and Jie Zhou and Heming Zhu and Dong Du and Xiaoguang Han
and Hongbo Fu
- Abstract要約: そこで本研究では,3次元動物型頭部の簡易なモデリングを支援するスケッチベースシステムであるSimpModelingを提案する。
我々は,手書きスケッチと合成スケッチの領域間を効果的に処理できる高度な暗黙的形状推論手法を用いる。
また、アーティストが手作業で作成する高品質な3D動物の頭部のデータセットにも貢献する。
- 参考スコア(独自算出の注目度): 40.821865912127635
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Head shapes play an important role in 3D character design. In this work, we
propose SimpModeling, a novel sketch-based system for helping users, especially
amateur users, easily model 3D animalmorphic heads - a prevalent kind of heads
in character design. Although sketching provides an easy way to depict desired
shapes, it is challenging to infer dense geometric information from sparse line
drawings. Recently, deepnet-based approaches have been taken to address this
challenge and try to produce rich geometric details from very few strokes.
However, while such methods reduce users' workload, they would cause less
controllability of target shapes. This is mainly due to the uncertainty of the
neural prediction. Our system tackles this issue and provides good
controllability from three aspects: 1) we separate coarse shape design and
geometric detail specification into two stages and respectively provide
different sketching means; 2) in coarse shape designing, sketches are used for
both shape inference and geometric constraints to determine global geometry,
and in geometric detail crafting, sketches are used for carving surface
details; 3) in both stages, we use the advanced implicit-based shape inference
methods, which have strong ability to handle the domain gap between freehand
sketches and synthetic ones used for training. Experimental results confirm the
effectiveness of our method and the usability of our interactive system. We
also contribute to a dataset of high-quality 3D animal heads, which are
manually created by artists.
- Abstract(参考訳): 頭部形状は3Dキャラクタデザインにおいて重要な役割を果たす。
本研究では,素人,特に素人において,文字設計における一般的な頭部である3d動物形頭部のモデル化を容易にするための,新しいスケッチベースシステムであるsimpmodelingを提案する。
スケッチは所望の形状を描く簡単な方法であるが、疎線図から密度の高い幾何学的情報を推測することは困難である。
近年,この課題に対処するディープネットベースのアプローチが採用され,ごく少数のストロークからリッチな幾何学的詳細を導き出そうとしている。
しかし、そのような方法ではユーザの作業負荷を減少させるが、ターゲット形状の制御性は低下する。
これは主に神経予測の不確実性によるものである。
Our system tackles this issue and provides good controllability from three aspects: 1) we separate coarse shape design and geometric detail specification into two stages and respectively provide different sketching means; 2) in coarse shape designing, sketches are used for both shape inference and geometric constraints to determine global geometry, and in geometric detail crafting, sketches are used for carving surface details; 3) in both stages, we use the advanced implicit-based shape inference methods, which have strong ability to handle the domain gap between freehand sketches and synthetic ones used for training.
実験により,本手法の有効性と対話システムの有用性が確認された。
また、アーティストが手作業で作成する高品質な3D動物の頭部のデータセットにも貢献する。
関連論文リスト
- SketchMetaFace: A Learning-based Sketching Interface for High-fidelity
3D Character Face Modeling [69.28254439393298]
SketchMetaFaceは、アマチュアユーザーを対象に、高忠実度3D顔を数分でモデリングするスケッチシステムである。
我々は"Implicit and Depth Guided Mesh Modeling"(IDGMM)と呼ばれる新しい学習ベース手法を開発した。
メッシュ、暗黙、深度表現の利点を融合させ、高い効率で高品質な結果を達成する。
論文 参考訳(メタデータ) (2023-07-03T07:41:07Z) - 3D VR Sketch Guided 3D Shape Prototyping and Exploration [108.6809158245037]
本稿では,3次元VRスケッチを条件として行う3次元形状生成ネットワークを提案する。
スケッチは初心者がアートトレーニングなしで作成していると仮定する。
本手法は,オリジナルスケッチの構造に整合した複数の3次元形状を生成する。
論文 参考訳(メタデータ) (2023-06-19T10:27:24Z) - Make Your Brief Stroke Real and Stereoscopic: 3D-Aware Simplified Sketch
to Portrait Generation [51.64832538714455]
既存の研究は2次元平面の像のみを固定ビューで生成し、その結果を鮮明にしない。
本稿では立体視による簡易スケッチ・トゥ・ポートレート(SSSP)について述べる。
我々の重要な洞察は、三面体ベースの3D認識生成モデルの事前知識を十分に活用できるスケッチ認識制約を設計することである。
論文 参考訳(メタデータ) (2023-02-14T06:28:42Z) - SingleSketch2Mesh : Generating 3D Mesh model from Sketch [1.6973426830397942]
スケッチから3Dモデルを生成する現在の方法は、手動またはタイトに3Dモデリングプラットフォームと結合されている。
我々は手描きスケッチから3Dモデルを生成するための新しいAIベースのアンサンブルアプローチであるSingleSketch2Meshを提案する。
論文 参考訳(メタデータ) (2022-03-07T06:30:36Z) - Sketch2PQ: Freeform Planar Quadrilateral Mesh Design via a Single Sketch [36.10997511325458]
フリーフォーム屋根形状の概念設計とデジタルモデリングを橋渡しする新しいスケッチベースシステムを提案する。
本システムでは, 表面境界線と輪郭線を軸方向投影でスケッチすることができる。
本研究では,高密度共役方向場とともに,表面形状をリアルタイムに推定するディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-01-23T21:09:59Z) - Detailed Avatar Recovery from Single Image [50.82102098057822]
本稿では,単一画像からエンフデテールアバターを回収するための新しい枠組みを提案する。
階層的メッシュ変形フレームワークでは、ディープニューラルネットワークを使用して3次元形状を洗練しています。
本手法は,皮膚モデルを超えて,完全なテクスチャで詳細な人体形状を復元することができる。
論文 参考訳(メタデータ) (2021-08-06T03:51:26Z) - Sketch2Mesh: Reconstructing and Editing 3D Shapes from Sketches [65.96417928860039]
スケッチのメッシュ変換にはエンコーダ/デコーダアーキテクチャを使用する。
このアプローチはデプロイが容易で、スタイル変更に堅牢であり、効果的であることを示します。
論文 参考訳(メタデータ) (2021-04-01T14:10:59Z) - 3D Shape Reconstruction from Free-Hand Sketches [42.15888734492648]
歪みのない線図からの3次元再構成では大きな進歩があったが、フリーハンドスケッチから3次元形状を再構築する努力はほとんど行われていない。
インタラクティブデザインやVR/ARゲームといった3D関連アプリケーションにおけるスケッチのパワー向上を目指す。
フリーハンドスケッチ3D再構成の大きな課題は、トレーニングデータ不足とフリーハンドスケッチの多様性にある。
論文 参考訳(メタデータ) (2020-06-17T07:43:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。