論文の概要: Deep Generative Modelling of Human Reach-and-Place Action
- arxiv url: http://arxiv.org/abs/2010.02345v1
- Date: Mon, 5 Oct 2020 21:36:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 21:57:17.885396
- Title: Deep Generative Modelling of Human Reach-and-Place Action
- Title(参考訳): リーチ・アンド・プレイス行動の深部生成モデル
- Authors: Connor Daly, Yuzuko Nakamura, Tobias Ritschel
- Abstract要約: 始終位置と終端位置を条件とした人間のリーチ・アンド・プレイス行動の深層生成モデルを提案する。
我々は、このような人間の3Dアクション600のデータセットを取得し、3Dソースとターゲットの2x3-D空間をサンプリングした。
我々の評価には、いくつかの改善、生成的多様性の分析、応用が含まれる。
- 参考スコア(独自算出の注目度): 15.38392014421915
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The motion of picking up and placing an object in 3D space is full of subtle
detail. Typically these motions are formed from the same constraints,
optimizing for swiftness, energy efficiency, as well as physiological limits.
Yet, even for identical goals, the motion realized is always subject to natural
variation. To capture these aspects computationally, we suggest a deep
generative model for human reach-and-place action, conditioned on a start and
end position.We have captured a dataset of 600 such human 3D actions, to sample
the 2x3-D space of 3D source and targets. While temporal variation is often
modeled with complex learning machinery like recurrent neural networks or
networks with memory or attention, we here demonstrate a much simpler approach
that is convolutional in time and makes use of(periodic) temporal encoding.
Provided a latent code and conditioned on start and end position, the model
generates a complete 3D character motion in linear time as a sequence of
convolutions. Our evaluation includes several ablations, analysis of generative
diversity and applications.
- Abstract(参考訳): 物体を3d空間に拾い上げ、配置するという動きは、微妙な細部でいっぱいだ。
通常、これらの運動は同じ制約から形成され、速さ、エネルギー効率、生理的限界に最適化される。
しかし、同じ目標であっても、実現された運動は常に自然変動の対象となる。
これらの側面を計算的に捉えるために、開始位置と終了位置で条件付けられた人間のリーチ・アンド・プレイス行動の深層生成モデルを提案し、600個の人間の3D行動のデータセットを収集し、3Dソースとターゲットの2x3次元空間をサンプリングした。
時間的変動はしばしば、リカレントニューラルネットワークやメモリや注意を持つネットワークのような複雑な学習機械でモデル化されるが、ここでは、時間的に畳み込み、(周期的な)時間的エンコーディングを利用する、はるかに単純なアプローチを示す。
潜在コードを提供し、開始位置と終了位置を条件として、モデルが畳み込みのシーケンスとして線形時間における完全な3dキャラクタ動作を生成する。
本評価には,いくつかのアブレーション,生成多様性の解析とその応用を含む。
関連論文リスト
- SpATr: MoCap 3D Human Action Recognition based on Spiral Auto-encoder
and Transformer Network [1.279257604152629]
本稿では,Spiral Auto-Encoder と Transformer Network をベースとした,固定トポロジメッシュ列からの人間の行動認識モデルを提案する。
スパイラル畳み込みに基づく自動エンコーダを構築することにより、競合認識率と高いメモリ効率を示す。
論文 参考訳(メタデータ) (2023-06-30T11:49:00Z) - Deep Generative Models on 3D Representations: A Survey [81.73385191402419]
生成モデルは、新しいインスタンスを生成することによって観測データの分布を学習することを目的としている。
最近、研究者は焦点を2Dから3Dにシフトし始めた。
3Dデータの表現は、非常に大きな課題をもたらします。
論文 参考訳(メタデータ) (2022-10-27T17:59:50Z) - MotionBERT: A Unified Perspective on Learning Human Motion
Representations [46.67364057245364]
本研究では,大規模・異種データ資源から人の動き表現を学習することで,人間中心のビデオタスクに取り組むための統一的な視点を示す。
本研究では,ノイズのある部分的な2次元観測から基礎となる3次元運動を復元するために,モーションエンコーダを訓練する事前学習段階を提案する。
動作エンコーダをDST(Dual-stream Spatio-temporal Transformer)ニューラルネットワークで実装する。
論文 参考訳(メタデータ) (2022-10-12T19:46:25Z) - Gait Recognition in the Wild with Multi-hop Temporal Switch [81.35245014397759]
野生での歩行認識は、より実践的な問題であり、マルチメディアとコンピュータビジョンのコミュニティの注目を集めています。
本稿では,現実のシーンにおける歩行パターンの効果的な時間的モデリングを実現するために,新しいマルチホップ時間スイッチ方式を提案する。
論文 参考訳(メタデータ) (2022-09-01T10:46:09Z) - LiP-Flow: Learning Inference-time Priors for Codec Avatars via
Normalizing Flows in Latent Space [90.74976459491303]
実行時入力に条件付けされた先行モデルを導入し、この先行空間を潜伏空間の正規化フローを介して3次元顔モデルに結びつける。
正規化フローは2つの表現空間をブリッジし、潜在サンプルをある領域から別の領域に変換することで、潜在可能性の目的を定義する。
提案手法は,表情のダイナミックスや微妙な表現をよりよく捉えることによって,表現的かつ効果的に先行することを示す。
論文 参考訳(メタデータ) (2022-03-15T13:22:57Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z) - Multi-frame sequence generator of 4D human body motion [0.0]
本稿では,翻訳と回転を含むグローバルな移動をエンコードする自動エンコーダに基づく生成フレームワークと,単一遅延空間ベクトルとしての多フレーム時間運動を提案する。
本研究は,低誤差境界内でのヒト形態素の4次元配列の再構成能力について検証した。
また,最初の人間のフレームから将来のフレームの4次元動作予測を行う手法の利点についても述べる。
論文 参考訳(メタデータ) (2021-06-07T13:56:46Z) - HuMoR: 3D Human Motion Model for Robust Pose Estimation [100.55369985297797]
HuMoRは、時間的ポーズと形状のロバスト推定のための3Dヒューマンモーションモデルです。
モーションシーケンスの各ステップにおけるポーズの変化の分布を学習する条件付き変分オートエンコーダについて紹介する。
本モデルが大規模モーションキャプチャーデータセットのトレーニング後に多様な動きや体型に一般化することを示す。
論文 参考訳(メタデータ) (2021-05-10T21:04:55Z) - Disentangling and Unifying Graph Convolutions for Skeleton-Based Action
Recognition [79.33539539956186]
本稿では,マルチスケールグラフ畳み込みと,G3Dという空間時間グラフ畳み込み演算子を結合する簡単な方法を提案する。
これらの提案を結合することにより,MS-G3Dという強力な特徴抽出器を開発し,そのモデルが3つの大規模データセット上で従来の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-03-31T11:28:25Z) - A Graph Attention Spatio-temporal Convolutional Network for 3D Human
Pose Estimation in Video [7.647599484103065]
我々は,アテンション機構を用いた局所的グローバル空間情報のモデリングにより,人間の骨格における制約の学習を改善する。
提案手法は, 奥行きのあいまいさと自己閉塞性を効果的に軽減し, 半上半身推定を一般化し, 2次元から3次元映像のポーズ推定における競合性能を実現する。
論文 参考訳(メタデータ) (2020-03-11T14:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。