論文の概要: The Wanderings of Odysseus in 3D Scenes
- arxiv url: http://arxiv.org/abs/2112.09251v1
- Date: Thu, 16 Dec 2021 23:24:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-20 16:08:22.530820
- Title: The Wanderings of Odysseus in 3D Scenes
- Title(参考訳): 3dシーンにおけるオデュッセウスの放浪
- Authors: Yan Zhang and Siyu Tang
- Abstract要約: GAMMAとして短縮された体表面マーカーによる生成運動プリミティブを提案する。
本研究では,各動作プリミティブをモデル化するために,体表面マーカーと条件付き変分オートエンコーダを利用する。
実験により,本手法は最先端のデータ駆動方式よりも現実的で制御可能な動作を実現できることが示された。
- 参考スコア(独自算出の注目度): 22.230079422580065
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Our goal is to populate digital environments, in which the digital humans
have diverse body shapes, move perpetually, and have plausible body-scene
contact. The core challenge is to generate realistic, controllable, and
infinitely long motions for diverse 3D bodies. To this end, we propose
generative motion primitives via body surface markers, shortened as GAMMA. In
our solution, we decompose the long-term motion into a time sequence of motion
primitives. We exploit body surface markers and conditional variational
autoencoder to model each motion primitive, and generate long-term motion by
implementing the generative model recursively. To control the motion to reach a
goal, we apply a policy network to explore the model latent space, and use a
tree-based search to preserve the motion quality during testing. Experiments
show that our method can produce more realistic and controllable motion than
state-of-the-art data-driven method. With conventional path-finding algorithms,
the generated human bodies can realistically move long distances for a long
period of time in the scene. Code will be released for research purposes at:
\url{https://yz-cnsdqz.github.io/eigenmotion/GAMMA/}
- Abstract(参考訳): 我々のゴールは、デジタル人間は多様な身体形態を持ち、永久に動き、身体とシーンの接触をしやすくするデジタル環境を蓄積することである。
主な課題は、多様な3Dボディに対して現実的で制御可能で無限に長い動きを作り出すことである。
この目的のために,体表面マーカーによる生成運動プリミティブを提案し,ガンマとして短縮する。
そこで本研究では,長期動作を動作プリミティブの時系列に分解する。
身体表面マーカーと条件付き変分オートエンコーダを用いて各動作プリミティブをモデル化し、生成モデルを再帰的に実装して長期動作を生成する。
目標を達成するための動作を制御するために,モデル潜在空間の探索にポリシネットワークを適用し,木に基づく探索を用いて,テスト中の運動品質の維持を行う。
実験により,本手法は最先端のデータ駆動方式よりもリアルで制御可能な動作を生成できることを示した。
従来のパス探索アルゴリズムでは、生成した人体はシーン内で長時間、現実的に長い距離を移動することができる。
研究目的のコードは次の通りである。 \url{https://yz-cnsdqz.github.io/eigenmotion/GAMMA/}
関連論文リスト
- Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Hierarchical Generation of Human-Object Interactions with Diffusion
Probabilistic Models [71.64318025625833]
本稿では,対象物と相互作用する人間の3次元運動を生成するための新しいアプローチを提案する。
私たちのフレームワークはまず一連のマイルストーンを生成し、それに沿って動きを合成します。
NSM, COUCH, SAMPデータセットを用いた実験では, 従来の手法よりも品質と多様性に大きな差があることが示されている。
論文 参考訳(メタデータ) (2023-10-03T17:50:23Z) - Synthesizing Diverse Human Motions in 3D Indoor Scenes [16.948649870341782]
そこで本研究では,仮想人間による3次元屋内シーンの映像化手法を提案する。
既存のアプローチは、キャプチャーされた人間の動きと、それらが相互作用する3Dシーンを含むトレーニングシーケンスに依存している。
仮想人間が3Dシーンをナビゲートし、現実的かつ自律的にオブジェクトと対話できる強化学習ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-21T09:22:24Z) - Generating Continual Human Motion in Diverse 3D Scenes [56.70255926954609]
本研究では,3次元シーンにまたがる人間の動きを誘導するアニメーターを合成する手法を提案する。
本研究では,連続的な動作合成問題を経路に沿って歩行し,キーポイントが指定した動作の内外への遷移に分解する。
我々のモデルは、つかんだり、座ったり、傾いたりといった多様な行動の長いシーケンスを生成することができる。
論文 参考訳(メタデータ) (2023-04-04T18:24:22Z) - Generating Smooth Pose Sequences for Diverse Human Motion Prediction [90.45823619796674]
本稿では,多様な動作予測と制御可能な動作予測のための統合された深部生成ネットワークを提案する。
標準ベンチマークデータセットであるHuman3.6MとHumanEva-Iの2つの実験は、我々のアプローチがサンプルの多様性と精度の両方において最先端のベースラインより優れていることを示した。
論文 参考訳(メタデータ) (2021-08-19T00:58:00Z) - We are More than Our Joints: Predicting how 3D Bodies Move [63.34072043909123]
我々は、潜時周波数から動きを生成する新しい変分オートエンコーダを訓練する。
実験の結果,本手法は最先端の3Dボディアニメーションとリアルな3Dボディアニメーションを生成することがわかった。
論文 参考訳(メタデータ) (2020-12-01T16:41:04Z) - Deep Generative Modelling of Human Reach-and-Place Action [15.38392014421915]
始終位置と終端位置を条件とした人間のリーチ・アンド・プレイス行動の深層生成モデルを提案する。
我々は、このような人間の3Dアクション600のデータセットを取得し、3Dソースとターゲットの2x3-D空間をサンプリングした。
我々の評価には、いくつかの改善、生成的多様性の分析、応用が含まれる。
論文 参考訳(メタデータ) (2020-10-05T21:36:20Z) - Contact and Human Dynamics from Monocular Video [73.47466545178396]
既存のディープモデルは、ほぼ正確に見えるエラーを含むビデオから2Dと3Dキネマティックのポーズを予測する。
本稿では,最初の2次元と3次元のポーズ推定を入力として,映像系列から3次元の人間の動きを推定する物理に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-07-22T21:09:11Z) - Generative Tweening: Long-term Inbetweening of 3D Human Motions [40.16462039509098]
本稿では,ヒトの動作の長期的包摂を行う,生体力学的に制約された生成的敵ネットワークを提案する。
我々は79種類のキャプチャー・モーション・データをトレーニングし、ネットワークは様々な複雑なモーション・スタイルで頑健に動作した。
論文 参考訳(メタデータ) (2020-05-18T17:04:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。