論文の概要: Deep Generative Modelling of Human Reach-and-Place Action
- arxiv url: http://arxiv.org/abs/2010.02345v1
- Date: Mon, 5 Oct 2020 21:36:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 21:57:17.885396
- Title: Deep Generative Modelling of Human Reach-and-Place Action
- Title(参考訳): リーチ・アンド・プレイス行動の深部生成モデル
- Authors: Connor Daly, Yuzuko Nakamura, Tobias Ritschel
- Abstract要約: 始終位置と終端位置を条件とした人間のリーチ・アンド・プレイス行動の深層生成モデルを提案する。
我々は、このような人間の3Dアクション600のデータセットを取得し、3Dソースとターゲットの2x3-D空間をサンプリングした。
我々の評価には、いくつかの改善、生成的多様性の分析、応用が含まれる。
- 参考スコア(独自算出の注目度): 15.38392014421915
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The motion of picking up and placing an object in 3D space is full of subtle
detail. Typically these motions are formed from the same constraints,
optimizing for swiftness, energy efficiency, as well as physiological limits.
Yet, even for identical goals, the motion realized is always subject to natural
variation. To capture these aspects computationally, we suggest a deep
generative model for human reach-and-place action, conditioned on a start and
end position.We have captured a dataset of 600 such human 3D actions, to sample
the 2x3-D space of 3D source and targets. While temporal variation is often
modeled with complex learning machinery like recurrent neural networks or
networks with memory or attention, we here demonstrate a much simpler approach
that is convolutional in time and makes use of(periodic) temporal encoding.
Provided a latent code and conditioned on start and end position, the model
generates a complete 3D character motion in linear time as a sequence of
convolutions. Our evaluation includes several ablations, analysis of generative
diversity and applications.
- Abstract(参考訳): 物体を3d空間に拾い上げ、配置するという動きは、微妙な細部でいっぱいだ。
通常、これらの運動は同じ制約から形成され、速さ、エネルギー効率、生理的限界に最適化される。
しかし、同じ目標であっても、実現された運動は常に自然変動の対象となる。
これらの側面を計算的に捉えるために、開始位置と終了位置で条件付けられた人間のリーチ・アンド・プレイス行動の深層生成モデルを提案し、600個の人間の3D行動のデータセットを収集し、3Dソースとターゲットの2x3次元空間をサンプリングした。
時間的変動はしばしば、リカレントニューラルネットワークやメモリや注意を持つネットワークのような複雑な学習機械でモデル化されるが、ここでは、時間的に畳み込み、(周期的な)時間的エンコーディングを利用する、はるかに単純なアプローチを示す。
潜在コードを提供し、開始位置と終了位置を条件として、モデルが畳み込みのシーケンスとして線形時間における完全な3dキャラクタ動作を生成する。
本評価には,いくつかのアブレーション,生成多様性の解析とその応用を含む。
関連論文リスト
- MonST3R: A Simple Approach for Estimating Geometry in the Presence of Motion [118.74385965694694]
我々は動的シーンから時間ステップごとの幾何を直接推定する新しい幾何学的アプローチであるMotion DUSt3R(MonST3R)を提案する。
各タイムステップのポイントマップを単純に推定することで、静的シーンにのみ使用されるDUST3Rの表現を動的シーンに効果的に適応させることができる。
我々は、問題を微調整タスクとしてポーズし、いくつかの適切なデータセットを特定し、この制限されたデータ上でモデルを戦略的に訓練することで、驚くほどモデルを動的に扱えることを示す。
論文 参考訳(メタデータ) (2024-10-04T18:00:07Z) - Equivariant Graph Neural Operator for Modeling 3D Dynamics [148.98826858078556]
我々は,次のステップの予測ではなく,ダイナミックスを直接トラジェクトリとしてモデル化するために,Equivariant Graph Neural Operator (EGNO)を提案する。
EGNOは3次元力学の時間的進化を明示的に学習し、時間とともに関数として力学を定式化し、それを近似するためにニューラル演算子を学習する。
粒子シミュレーション、人間のモーションキャプチャー、分子動力学を含む複数の領域における総合的な実験は、既存の手法と比較して、EGNOの極めて優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-19T21:50:32Z) - SpATr: MoCap 3D Human Action Recognition based on Spiral Auto-encoder and Transformer Network [1.4732811715354455]
SpATr(Spiral Auto-Encoder and Transformer Network)と呼ばれる3次元動作認識のための新しいアプローチを提案する。
スパイラル畳み込みに基づく軽量オートエンコーダを用いて,各3次元メッシュから空間幾何学的特徴を抽出する。
提案手法は,Babel,MoVi,BMLrubの3つの顕著な3次元行動データセットを用いて評価した。
論文 参考訳(メタデータ) (2023-06-30T11:49:00Z) - Deep Generative Models on 3D Representations: A Survey [81.73385191402419]
生成モデルは、新しいインスタンスを生成することによって観測データの分布を学習することを目的としている。
最近、研究者は焦点を2Dから3Dにシフトし始めた。
3Dデータの表現は、非常に大きな課題をもたらします。
論文 参考訳(メタデータ) (2022-10-27T17:59:50Z) - MotionBERT: A Unified Perspective on Learning Human Motion
Representations [46.67364057245364]
本研究では,大規模・異種データ資源から人の動き表現を学習することで,人間中心のビデオタスクに取り組むための統一的な視点を示す。
本研究では,ノイズのある部分的な2次元観測から基礎となる3次元運動を復元するために,モーションエンコーダを訓練する事前学習段階を提案する。
動作エンコーダをDST(Dual-stream Spatio-temporal Transformer)ニューラルネットワークで実装する。
論文 参考訳(メタデータ) (2022-10-12T19:46:25Z) - LiP-Flow: Learning Inference-time Priors for Codec Avatars via
Normalizing Flows in Latent Space [90.74976459491303]
実行時入力に条件付けされた先行モデルを導入し、この先行空間を潜伏空間の正規化フローを介して3次元顔モデルに結びつける。
正規化フローは2つの表現空間をブリッジし、潜在サンプルをある領域から別の領域に変換することで、潜在可能性の目的を定義する。
提案手法は,表情のダイナミックスや微妙な表現をよりよく捉えることによって,表現的かつ効果的に先行することを示す。
論文 参考訳(メタデータ) (2022-03-15T13:22:57Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z) - Multi-frame sequence generator of 4D human body motion [0.0]
本稿では,翻訳と回転を含むグローバルな移動をエンコードする自動エンコーダに基づく生成フレームワークと,単一遅延空間ベクトルとしての多フレーム時間運動を提案する。
本研究は,低誤差境界内でのヒト形態素の4次元配列の再構成能力について検証した。
また,最初の人間のフレームから将来のフレームの4次元動作予測を行う手法の利点についても述べる。
論文 参考訳(メタデータ) (2021-06-07T13:56:46Z) - HuMoR: 3D Human Motion Model for Robust Pose Estimation [100.55369985297797]
HuMoRは、時間的ポーズと形状のロバスト推定のための3Dヒューマンモーションモデルです。
モーションシーケンスの各ステップにおけるポーズの変化の分布を学習する条件付き変分オートエンコーダについて紹介する。
本モデルが大規模モーションキャプチャーデータセットのトレーニング後に多様な動きや体型に一般化することを示す。
論文 参考訳(メタデータ) (2021-05-10T21:04:55Z) - A Graph Attention Spatio-temporal Convolutional Network for 3D Human
Pose Estimation in Video [7.647599484103065]
我々は,アテンション機構を用いた局所的グローバル空間情報のモデリングにより,人間の骨格における制約の学習を改善する。
提案手法は, 奥行きのあいまいさと自己閉塞性を効果的に軽減し, 半上半身推定を一般化し, 2次元から3次元映像のポーズ推定における競合性能を実現する。
論文 参考訳(メタデータ) (2020-03-11T14:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。