論文の概要: Real-time Street Human Motion Capture
- arxiv url: http://arxiv.org/abs/2112.11543v1
- Date: Tue, 21 Dec 2021 22:11:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-24 00:41:51.016141
- Title: Real-time Street Human Motion Capture
- Title(参考訳): リアルタイムストリートヒューマンモーションキャプチャ
- Authors: Yanquan Chen, Fei Yang, Tianyu Lang, Guanfang Dong, Anup Basu
- Abstract要約: プロジェクトの第一の目的は、ビデオの中の人間の動きを捉え、その動き情報をリアルタイムで3Dアニメーション(人間)に利用することである。
我々は,ストリートビューのシーン下で,モーションキャプチャーにニューラルネットワークを適用し,一元的に実装した。
動きデータを解析することにより、道路条件をよりよく推定し、自動運転車などの他のハイテクアプリケーションに役立ちます。
- 参考スコア(独自算出の注目度): 4.781156278433356
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In recent years, motion capture technology using computers has developed
rapidly. Because of its high efficiency and excellent performance, it replaces
many traditional methods and is being widely used in many fields. Our project
is about street scene video human motion capturing and analysis. The primary
goal of the project is to capture the human motion in a video and use the
motion information for 3D animation (human) in real-time. We applied a neural
network for motion capture and implement it in the unity under a street view
scene. By analyzing the motion data, we will have a better estimation of the
street condition, which is useful for other high-tech applications such as
self-driving cars.
- Abstract(参考訳): 近年,コンピュータを用いたモーションキャプチャ技術が急速に発展している。
高い効率と優れた性能のため、多くの伝統的な手法を置き換え、多くの分野で広く使われている。
私たちのプロジェクトは、ストリートシーンビデオのヒューマンモーションキャプチャと分析に関するものです。
このプロジェクトの第一の目的は、人間の動きをビデオで捉え、3dアニメーション(人間)の動作情報をリアルタイムで利用することだ。
我々は,ストリートビューのシーン下で,モーションキャプチャーにニューラルネットワークを適用し,一元的に実装した。
動きデータを解析することにより、道路条件をよりよく推定し、自動運転車などの他のハイテクアプリケーションに役立ちます。
関連論文リスト
- Massively Multi-Person 3D Human Motion Forecasting with Scene Context [13.197408989895102]
本研究では、長期(10秒)の人間の動きを予測するために、シーン認識型ソーシャルトランスフォーマーモデル(SAST)を提案する。
我々は、時間的畳み込みエンコーダ・デコーダアーキテクチャとTransformerベースのボトルネックを組み合わせることで、動きとシーン情報を効率的に組み合わせることができる。
我々のモデルは、さまざまなメトリクスやユーザスタディにおいて、リアリズムや多様性の観点から、他のアプローチよりも優れています。
論文 参考訳(メタデータ) (2024-09-18T17:58:51Z) - HumanVid: Demystifying Training Data for Camera-controllable Human Image Animation [64.37874983401221]
人間の画像アニメーションに適した,最初の大規模高品質データセットであるHumanVidを紹介する。
実世界のデータについては、インターネットから大量の実世界のビデオをコンパイルします。
合成データとして,10K3Dアバターを収集し,体形,肌のテクスチャ,衣服などの既存の資産を利用した。
論文 参考訳(メタデータ) (2024-07-24T17:15:58Z) - WHAM: Reconstructing World-grounded Humans with Accurate 3D Motion [43.95997922499137]
WHAM(World-grounded Humans with Accurate Motion)は、ビデオから世界座標系で3次元の人間の動きを再構成する。
SLAM法から推定されるカメラ角速度と人間の動きを用いて、身体のグローバルな軌跡を推定する。
複数のWildベンチマークで、既存の3Dモーションリカバリ手法よりも優れています。
論文 参考訳(メタデータ) (2023-12-12T18:57:46Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Decoupling Human and Camera Motion from Videos in the Wild [67.39432972193929]
本研究では,野生の映像から地球規模の人間の軌道を再構築する手法を提案する。
カメラと人間の動きを分離することで、人間を同じ世界座標系に配置することができる。
論文 参考訳(メタデータ) (2023-02-24T18:59:15Z) - D&D: Learning Human Dynamics from Dynamic Camera [55.60512353465175]
本稿では、物理の法則を活かしたD&D(Learning Human Dynamics from Dynamic Camera)を紹介する。
私たちのアプローチは完全にニューラルネットワークで、物理エンジンのオフライン最適化やシミュレーションなしで動作します。
論文 参考訳(メタデータ) (2022-09-19T06:51:02Z) - Learning Fine-Grained Motion Embedding for Landscape Animation [140.57889994591494]
ファイングラインド・モーション・埋め込みを学習し,高品質でリアルな映像を生成するモデルFGLAを提案する。
多様なタイムラプスビデオのトレーニングと評価を行うため、Diverseのシーンを用いた最大の高解像度タイムラプスビデオデータセットを構築した。
提案手法は,LIPISが19%,FVDが5.6%向上した。
論文 参考訳(メタデータ) (2021-09-06T02:47:11Z) - Learning Motion Priors for 4D Human Body Capture in 3D Scenes [81.54377747405812]
LEMO: LEMO: LEARING Human Motion priors for 4D human body capture。
提案手法では, 連続して復元されたポーズによって現れるジッタを減少させる新規な動きを事前に導入する。
また, 接触摩擦項と, 物体ごとの自己監督訓練により得られる接触認識運動充填剤を設計した。
パイプラインでは、高品質な4D人体撮影、スムーズな動きの再構築、身体とシーンの相互作用を実演しています。
論文 参考訳(メタデータ) (2021-08-23T20:47:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。