論文の概要: Morig: Motion-aware rigging of character meshes from point clouds
- arxiv url: http://arxiv.org/abs/2210.09463v1
- Date: Mon, 17 Oct 2022 22:28:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 15:52:38.406546
- Title: Morig: Motion-aware rigging of character meshes from point clouds
- Title(参考訳): morig氏:ポイントクラウドからのキャラクタメッシュのモーションアウェアリグ
- Authors: Zhan Xu, Yang Zhou, Li Yi, Evangelos Kalogerakis
- Abstract要約: MoRigは、シングルビューポイントのクラウドストリームによって駆動されるキャラクタメッシュを自動的にリグするメソッドである。
また, 捕獲した点雲の動きに応じて3次元メッシュをアニメーション化することができる。
- 参考スコア(独自算出の注目度): 27.515067263237082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present MoRig, a method that automatically rigs character meshes driven by
single-view point cloud streams capturing the motion of performing characters.
Our method is also able to animate the 3D meshes according to the captured
point cloud motion. MoRig's neural network encodes motion cues from the point
clouds into features that are informative about the articulated parts of the
performing character. These motion-aware features guide the inference of an
appropriate skeletal rig for the input mesh, which is then animated based on
the point cloud motion. Our method can rig and animate diverse characters,
including humanoids, quadrupeds, and toys with varying articulation. It
accounts for occluded regions in the point clouds and mismatches in the part
proportions between the input mesh and captured character. Compared to other
rigging approaches that ignore motion cues, MoRig produces more accurate rigs,
well-suited for re-targeting motion from captured characters.
- Abstract(参考訳): 単一視点のクラウドストリームによって駆動されるキャラクタメッシュを自動的にリグする手法であるMoRigを提案する。
また, 捕獲した点雲の動きに応じて3次元メッシュをアニメーションすることができる。
MoRigのニューラルネットワークは、ポイントクラウドからのモーションキューを、パフォーマンスキャラクタの明瞭な部分に関する情報に符号化する。
これらのモーションアウェア機能は、入力メッシュに適した骨格リグの推論を導くもので、ポイントクラウドモーションに基づいてアニメーションされる。
本手法は, ヒューマノイド, 四足歩行, 玩具など多彩な特徴をリグおよびアニメーション化することができる。
ポイントクラウド内のオクルードされた領域と、入力メッシュとキャプチャされたキャラクタの間の部分のミスマッチを説明する。
モーションキューを無視する他のリグアプローチと比較して、MoRigはより正確なリグを生成し、キャプチャされた文字から動きを再ターゲットするのに適している。
関連論文リスト
- Towards High-Quality 3D Motion Transfer with Realistic Apparel Animation [69.36162784152584]
本研究では,現実的なアパレルアニメーションを用いた高品質な動き伝達を目的とした新しい手法を提案する。
本稿では,2つのニューラル変形モジュールを介し,物体とアパレルの変形を学習するデータ駆動パイプラインを提案する。
本手法は各種アパレルの品質に優れた結果をもたらす。
論文 参考訳(メタデータ) (2024-07-15T22:17:35Z) - TapMo: Shape-aware Motion Generation of Skeleton-free Characters [64.83230289993145]
骨格のない3Dキャラクタの広帯域における動作のためのテキスト駆動アニメーションパイプラインであるTapMoを提案する。
TapMoはMesh Handle PredictorとShape-aware Diffusion Moduleの2つの主要コンポーネントで構成されている。
論文 参考訳(メタデータ) (2023-10-19T12:14:32Z) - Physics-based Motion Retargeting from Sparse Inputs [73.94570049637717]
商用AR/VR製品はヘッドセットとコントローラーのみで構成されており、ユーザーのポーズのセンサーデータは非常に限られている。
本研究では, 多様な形態のキャラクタに対して, 粗い人間のセンサデータからリアルタイムに動きをターゲットする手法を提案する。
アバターのポーズは、下半身のセンサー情報がないにもかかわらず、驚くほどよくユーザと一致していることを示す。
論文 参考訳(メタデータ) (2023-07-04T21:57:05Z) - Learning Landmarks Motion from Speech for Speaker-Agnostic 3D Talking
Heads Generation [9.242997749920498]
本稿では,生音声入力から3次元音声頭を生成する新しい手法を提案する。
3D音声ヘッド生成におけるランドマークの使用は、一貫性、信頼性、手動アノテーションの必要性の回避など、さまざまなメリットを提供する。
論文 参考訳(メタデータ) (2023-06-02T10:04:57Z) - Generating Continual Human Motion in Diverse 3D Scenes [56.70255926954609]
本研究では,3次元シーンにまたがる人間の動きを誘導するアニメーターを合成する手法を提案する。
本研究では,連続的な動作合成問題を経路に沿って歩行し,キーポイントが指定した動作の内外への遷移に分解する。
我々のモデルは、つかんだり、座ったり、傾いたりといった多様な行動の長いシーケンスを生成することができる。
論文 参考訳(メタデータ) (2023-04-04T18:24:22Z) - Motion Representations for Articulated Animation [34.54825980226596]
異なる部分からなる関節オブジェクトをアニメーション化するための新しいモーション表現を提案する。
完全に教師なしの方法で、本手法は対象部品を識別し、駆動ビデオで追跡し、主軸を考慮して動きを推定する。
我々のモデルは様々なオブジェクトをアニメートすることができ、既存のベンチマークでは従来のメソッドを大きく上回っています。
論文 参考訳(メタデータ) (2021-04-22T18:53:56Z) - Animating Pictures with Eulerian Motion Fields [90.30598913855216]
静止画をリアルなアニメーションループ映像に変換する完全自動手法を示す。
流れ水や吹く煙など,連続流体運動の場面を対象とする。
本稿では,前向きと後向きの両方に特徴を流し,その結果をブレンドする新しいビデオループ手法を提案する。
論文 参考訳(メタデータ) (2020-11-30T18:59:06Z) - First Order Motion Model for Image Animation [90.712718329677]
画像アニメーションは、駆動ビデオの動きに応じて、ソース画像内のオブジェクトがアニメーションされるように、ビデオシーケンスを生成する。
我々のフレームワークは、アニメーションする特定のオブジェクトに関するアノテーションや事前情報を使わずに、この問題に対処します。
論文 参考訳(メタデータ) (2020-02-29T07:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。