論文の概要: Continuous-Time Human Motion Field from Events
- arxiv url: http://arxiv.org/abs/2412.01747v1
- Date: Mon, 02 Dec 2024 17:42:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:44:53.872924
- Title: Continuous-Time Human Motion Field from Events
- Title(参考訳): イベントからの連続時間人体運動場
- Authors: Ziyun Wang, Ruijun Zhang, Zi-Yan Liu, Yufu Wang, Kostas Daniilidis,
- Abstract要約: 本稿では,イベントの流れから連続的な人体運動場を推定する上での課題について述べる。
我々は、繰り返しフィードフォワードニューラルネットワークを用いて、人間の動きの潜在空間における人間の動きを予測する。
本稿では,従来の離散時間予測を時系列関数として表現した連続的な人体運動場に置き換える最初の研究について述べる。
- 参考スコア(独自算出の注目度): 26.355172872510238
- License:
- Abstract: This paper addresses the challenges of estimating a continuous-time human motion field from a stream of events. Existing Human Mesh Recovery (HMR) methods rely predominantly on frame-based approaches, which are prone to aliasing and inaccuracies due to limited temporal resolution and motion blur. In this work, we predict a continuous-time human motion field directly from events by leveraging a recurrent feed-forward neural network to predict human motion in the latent space of possible human motions. Prior state-of-the-art event-based methods rely on computationally intensive optimization across a fixed number of poses at high frame rates, which becomes prohibitively expensive as we increase the temporal resolution. In comparison, we present the first work that replaces traditional discrete-time predictions with a continuous human motion field represented as a time-implicit function, enabling parallel pose queries at arbitrary temporal resolutions. Despite the promises of event cameras, few benchmarks have tested the limit of high-speed human motion estimation. We introduce Beam-splitter Event Agile Human Motion Dataset-a hardware-synchronized high-speed human dataset to fill this gap. On this new data, our method improves joint errors by 23.8% compared to previous event human methods while reducing the computational time by 69%.
- Abstract(参考訳): 本稿では,イベントの流れから連続的な人体運動場を推定する上での課題について述べる。
既存のHuman Mesh Recovery (HMR) 手法はフレームベースのアプローチに大きく依存しており、時間分解能の制限や動きのぼかしによるエイリアスや不正確な処理が困難である。
本研究では,人間の動きの潜在空間における人間の動きを予測するために,繰り返しのフィードフォワードニューラルネットワークを活用することで,事象から連続的な人体運動場を直接予測する。
それまでの最先端のイベントベース手法は、高フレームレートでの固定回数のポーズに対する計算集約的な最適化に依存していた。
本稿では,従来の離散時間予測を時系列関数として表現した連続的な人体運動場に置き換え,任意の時間分解における並列ポーズクエリを実現する。
イベントカメラの約束にもかかわらず、高速な人間の動き推定の限界をテストするベンチマークはほとんどない。
Beam-splitter Event Agile Human Motion Dataset – このギャップを埋めるために、ハードウェア同期の高速な人的データセット。
本手法は,従来のイベントヒューマン手法に比べて23.8%,計算時間を69%削減すると共に,関節の誤差を23.8%改善する。
関連論文リスト
- COIN: Control-Inpainting Diffusion Prior for Human and Camera Motion Estimation [98.05046790227561]
COINは、人間の動きとカメラの動きを細粒度に制御できる、コントロール・インパインティング・モーション拡散である。
COINは、グローバルな人間の動き推定とカメラの動き推定という観点から、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-08-29T10:36:29Z) - Towards Practical Human Motion Prediction with LiDAR Point Clouds [15.715130864327792]
我々は,最初のシングルLiDARに基づく3次元人体動作予測手法であるtextitLiDAR-HMPを提案する。
LiDAR-HMPは、入力として生のLiDARポイントクラウドを受け取り、将来の3D人間のポーズを直接予測する。
提案手法は,2つの公開ベンチマーク上での最先端性能を実現し,実世界の展開において顕著な堅牢性と有効性を示す。
論文 参考訳(メタデータ) (2024-08-15T15:10:01Z) - Aligning Human Motion Generation with Human Perceptions [51.831338643012444]
本研究では,大規模人間の知覚評価データセットであるMotionPerceptと,人間の動作批判モデルであるMotionCriticを導入することにより,ギャップを埋めるデータ駆動型アプローチを提案する。
我々の批評家モデルは、運動品質を評価するためのより正確な指標を提供しており、容易に運動生成パイプラインに統合することができる。
論文 参考訳(メタデータ) (2024-07-02T14:01:59Z) - RecMoDiffuse: Recurrent Flow Diffusion for Human Motion Generation [5.535590461577558]
RecMoDiffuseは時間モデリングのための新しい再帰拡散定式化である。
人間の動作の時間的モデリングにおけるRecMoDiffuseの有効性を実証する。
論文 参考訳(メタデータ) (2024-06-11T11:25:37Z) - AdvMT: Adversarial Motion Transformer for Long-term Human Motion
Prediction [2.837740438355204]
本稿では,AdvMT(Adversarial Motion Transformer)について述べる。
逆行訓練では,予測の不要な成果物を効果的に削減し,より現実的で流動的な人間の動作の学習を確実にする。
論文 参考訳(メタデータ) (2024-01-10T09:15:50Z) - Decomposed Human Motion Prior for Video Pose Estimation via Adversarial
Training [7.861513525154702]
本稿では, ニューラルネットワークが先行知識から容易に学習できるように, 関節運動の前に全体運動を分解することを提案する。
また,新たな正規化損失を利用して,前もって導入された動きの正確さと滑らかさのバランスをとる。
提案手法は従来の3DPW法と比較して, PA-MPJPEが9%, 加速度誤差が29%低い。
論文 参考訳(メタデータ) (2023-05-30T04:53:34Z) - Towards Accurate Human Motion Prediction via Iterative Refinement [9.910719309846128]
FreqMRNは人体の運動構造と運動の時間的滑らかさの両方を考慮に入れている。
我々は,Human3.6M,AMASS,3DPWなど,いくつかの標準ベンチマークデータセット上でFreqMRNを評価する。
論文 参考訳(メタデータ) (2023-05-08T03:43:51Z) - Direct Dense Pose Estimation [138.56533828316833]
複雑な人間のポーズ推定は、RGB画像と人体の表面との密接な対応を学習する問題である。
従来より密集したポーズ推定手法は、すべてMask R-CNNフレームワークに基づいており、まず各人物のバウンディングボックスを識別しようとするトップダウン方式で動作している。
そこで我々は,DDP (Direct Dense Pose) という,高密度ポーズ推定問題の解法を提案する。
論文 参考訳(メタデータ) (2022-04-04T06:14:38Z) - Investigating Pose Representations and Motion Contexts Modeling for 3D
Motion Prediction [63.62263239934777]
歴史的ポーズシーケンスから人間の動きを予測することは、機械が人間と知的な相互作用を成功させるために不可欠である。
本研究では,様々なポーズ表現に関する詳細な研究を行い,その動作予測課題に対する効果に着目した。
AHMR(Attentive Hierarchical Motion Recurrent Network)と呼ばれる新しいRNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-30T10:45:22Z) - Long Term Motion Prediction Using Keyposes [122.22758311506588]
長期的な予測を達成するには、瞬時に人間のポーズを予測する必要があると論じている。
このようなポーズを「キーポス」と呼び、後続のキーポスを線形に補間して近似する複素運動と呼ぶ。
このようなキープレースのシーケンスを学習することで,将来的には最大5秒まで,非常に長期にわたる動作を予測できることが示される。
論文 参考訳(メタデータ) (2020-12-08T20:45:51Z) - Perpetual Motion: Generating Unbounded Human Motion [61.40259979876424]
我々は、長期的な予測、つまり、人間の動きの長いシーケンスを生成することに焦点を当てる。
本研究では,非決定論的,テキストに変化する,永続的な人間の動きを生成するモデルを提案する。
我々は、これをホワイトノイズガウス過程のKL分岐の重み付き関数を用いて訓練し、潜時シーケンスの時間依存性を許容する。
論文 参考訳(メタデータ) (2020-07-27T21:50:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。