論文の概要: Interactive Sketching of Mannequin Poses
- arxiv url: http://arxiv.org/abs/2212.07098v1
- Date: Wed, 14 Dec 2022 08:45:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 17:47:33.321033
- Title: Interactive Sketching of Mannequin Poses
- Title(参考訳): マネキンポーズのインタラクティブなスケッチ
- Authors: Gizem Unlu, Mohamed Sayed, Gabriel Brostow
- Abstract要約: 3Dボディポーズは、様々なダウンストリームアプリケーションに必要である。
本研究では,シリンダーパーソナライズされた人間のスケッチからCGマネキンの3次元ポーズを推論する機械学習モデルを提案する。
ベクトルグラフィックストレーニングデータに対する我々のユニークなアプローチは、統合されたMLとキネマティクスシステムを支える。
- 参考スコア(独自算出の注目度): 3.222802562733787
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: It can be easy and even fun to sketch humans in different poses. In contrast,
creating those same poses on a 3D graphics "mannequin" is comparatively
tedious. Yet 3D body poses are necessary for various downstream applications.
We seek to preserve the convenience of 2D sketching while giving users of
different skill levels the flexibility to accurately and more quickly
pose\slash refine a 3D mannequin.
At the core of the interactive system, we propose a machine-learning model
for inferring the 3D pose of a CG mannequin from sketches of humans drawn in a
cylinder-person style. Training such a model is challenging because of artist
variability, a lack of sketch training data with corresponding ground truth 3D
poses, and the high dimensionality of human pose-space. Our unique approach to
synthesizing vector graphics training data underpins our integrated
ML-and-kinematics system. We validate the system by tightly coupling it with a
user interface, and by performing a user study, in addition to quantitative
comparisons.
- Abstract(参考訳): 異なるポーズで人間をスケッチするのは簡単で楽しいことです。
対照的に、3dグラフィック「マネキン」で同じポーズを作るのは比較的退屈です。
しかし、様々な下流アプリケーションには3Dボディポーズが必要である。
2Dスケッチの利便性を保ちつつ,異なるスキルレベルを持つユーザに対して,3Dマネキンを正確に,より高速に表現するための柔軟性を実現する。
対話型システムの中核として, cgマネキンの3次元ポーズをシリンダー・パーソン・スタイルで描く人間のスケッチから推測する機械学習モデルを提案する。
このようなモデルのトレーニングは、アーティストの多様性、対応する地上真理3dポーズのスケッチトレーニングデータの欠如、人間のポーズ空間の高次元のため、難しい。
ベクトルグラフィックスのトレーニングデータを合成する独自のアプローチは、統合ml-アンド-キネマティクスシステムを支える。
本研究では,ユーザインタフェースと密に結合し,定量的比較に加えてユーザスタディを実施することにより,システムの検証を行う。
関連論文リスト
- SketchBodyNet: A Sketch-Driven Multi-faceted Decoder Network for 3D
Human Reconstruction [18.443079472919635]
そこで本研究では,SketchBodyNetと呼ばれるスケッチ駆動型マルチ顔デコーダネットワークを提案する。
我々のネットワークは,フリーハンドスケッチから3次元メッシュを再構築する際の優れた性能を実現している。
論文 参考訳(メタデータ) (2023-10-10T12:38:34Z) - SketchMetaFace: A Learning-based Sketching Interface for High-fidelity
3D Character Face Modeling [69.28254439393298]
SketchMetaFaceは、アマチュアユーザーを対象に、高忠実度3D顔を数分でモデリングするスケッチシステムである。
我々は"Implicit and Depth Guided Mesh Modeling"(IDGMM)と呼ばれる新しい学習ベース手法を開発した。
メッシュ、暗黙、深度表現の利点を融合させ、高い効率で高品質な結果を達成する。
論文 参考訳(メタデータ) (2023-07-03T07:41:07Z) - AG3D: Learning to Generate 3D Avatars from 2D Image Collections [96.28021214088746]
本稿では,2次元画像から現実的な3次元人物の新たな逆生成モデルを提案する。
本手法は, 全身型3Dジェネレータを用いて, 体の形状と変形を捉える。
提案手法は, 従来の3次元・調音認識手法よりも幾何的, 外観的に優れていた。
論文 参考訳(メタデータ) (2023-05-03T17:56:24Z) - Embodied Hands: Modeling and Capturing Hands and Bodies Together [61.32931890166915]
人間は、コミュニケーションとタスクの解決のために、手と体を一緒に移動します。
ほとんどの方法は、体と手の3Dモデリングと追跡を別々に扱う。
我々は、手と体の相互作用をモデルとして定式化し、それをフルボディの4Dシーケンスに適合させる。
論文 参考訳(メタデータ) (2022-01-07T18:59:32Z) - Human Performance Capture from Monocular Video in the Wild [50.34917313325813]
本研究では,挑戦的な身体ポーズを特徴とするモノクロ映像から動的3次元人体形状をキャプチャする手法を提案する。
本手法は,現在開発中の3DPWビデオデータセットにおいて,最先端の手法よりも優れる。
論文 参考訳(メタデータ) (2021-11-29T16:32:41Z) - SCANimate: Weakly Supervised Learning of Skinned Clothed Avatar Networks [54.94737477860082]
本論文では,着る人間の生の3Dスキャンをイメージ可能なアバターに変える,エンドツーエンドのトレーニング可能なフレームワークを提案する。
SCANimateはカスタマイズされたメッシュテンプレートや表面メッシュ登録に依存しません。
本手法はポーズ認識型外観モデルに適用でき,完全にテクスチャ化されたアバターを生成できる。
論文 参考訳(メタデータ) (2021-04-07T17:59:58Z) - Self-Supervised 3D Human Pose Estimation via Part Guided Novel Image
Synthesis [72.34794624243281]
ラベルのないビデオフレームからバリエーションを分離する自己教師付き学習フレームワークを提案する。
3Dポーズと空間部分マップの表現ギャップを埋める、微分可能な形式化により、多様なカメラの動きを持つビデオで操作できる。
論文 参考訳(メタデータ) (2020-04-09T07:55:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。