論文の概要: Real-time Street Human Motion Capture
- arxiv url: http://arxiv.org/abs/2112.11543v1
- Date: Tue, 21 Dec 2021 22:11:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-24 00:41:51.016141
- Title: Real-time Street Human Motion Capture
- Title(参考訳): リアルタイムストリートヒューマンモーションキャプチャ
- Authors: Yanquan Chen, Fei Yang, Tianyu Lang, Guanfang Dong, Anup Basu
- Abstract要約: プロジェクトの第一の目的は、ビデオの中の人間の動きを捉え、その動き情報をリアルタイムで3Dアニメーション(人間)に利用することである。
我々は,ストリートビューのシーン下で,モーションキャプチャーにニューラルネットワークを適用し,一元的に実装した。
動きデータを解析することにより、道路条件をよりよく推定し、自動運転車などの他のハイテクアプリケーションに役立ちます。
- 参考スコア(独自算出の注目度): 4.781156278433356
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In recent years, motion capture technology using computers has developed
rapidly. Because of its high efficiency and excellent performance, it replaces
many traditional methods and is being widely used in many fields. Our project
is about street scene video human motion capturing and analysis. The primary
goal of the project is to capture the human motion in a video and use the
motion information for 3D animation (human) in real-time. We applied a neural
network for motion capture and implement it in the unity under a street view
scene. By analyzing the motion data, we will have a better estimation of the
street condition, which is useful for other high-tech applications such as
self-driving cars.
- Abstract(参考訳): 近年,コンピュータを用いたモーションキャプチャ技術が急速に発展している。
高い効率と優れた性能のため、多くの伝統的な手法を置き換え、多くの分野で広く使われている。
私たちのプロジェクトは、ストリートシーンビデオのヒューマンモーションキャプチャと分析に関するものです。
このプロジェクトの第一の目的は、人間の動きをビデオで捉え、3dアニメーション(人間)の動作情報をリアルタイムで利用することだ。
我々は,ストリートビューのシーン下で,モーションキャプチャーにニューラルネットワークを適用し,一元的に実装した。
動きデータを解析することにより、道路条件をよりよく推定し、自動運転車などの他のハイテクアプリケーションに役立ちます。
関連論文リスト
- Motion Tracks: A Unified Representation for Human-Robot Transfer in Few-Shot Imitation Learning [40.43176821917154]
本稿では,画像上の2次元短距離軌跡として行動を表現することを提案する。
これらの動作、つまりモーショントラックは、人間の手やロボットのエンドエフェクターの動作の予測方向を捉えます。
画像観察を受信し,動作トラックを動作として出力する,MT-pi(Motion Track Policy)と呼ばれるILポリシをインスタンス化する。
論文 参考訳(メタデータ) (2025-01-13T01:01:44Z) - Move-in-2D: 2D-Conditioned Human Motion Generation [54.067588636155115]
そこで我々は,シーンイメージに条件付けされた人間の動作シーケンスを生成する新しい手法であるMove-in-2Dを提案する。
本手法はシーンイメージとテキストプロンプトの両方を入力として受け入れ,シーンに合わせた動作シーケンスを生成する。
論文 参考訳(メタデータ) (2024-12-17T18:58:07Z) - Motion Prompting: Controlling Video Generation with Motion Trajectories [57.049252242807874]
スパースもしくは高密度なビデオ軌跡を条件とした映像生成モデルを訓練する。
ハイレベルなユーザリクエストを,詳細なセミセンスな動作プロンプトに変換する。
我々は、カメラや物体の動き制御、画像との「相互作用」、動画転送、画像編集など、様々な応用を通してアプローチを実証する。
論文 参考訳(メタデータ) (2024-12-03T18:59:56Z) - Massively Multi-Person 3D Human Motion Forecasting with Scene Context [13.197408989895102]
本研究では、長期(10秒)の人間の動きを予測するために、シーン認識型ソーシャルトランスフォーマーモデル(SAST)を提案する。
我々は、時間的畳み込みエンコーダ・デコーダアーキテクチャとTransformerベースのボトルネックを組み合わせることで、動きとシーン情報を効率的に組み合わせることができる。
我々のモデルは、さまざまなメトリクスやユーザスタディにおいて、リアリズムや多様性の観点から、他のアプローチよりも優れています。
論文 参考訳(メタデータ) (2024-09-18T17:58:51Z) - HumanVid: Demystifying Training Data for Camera-controllable Human Image Animation [64.37874983401221]
人間の画像アニメーションに適した,最初の大規模高品質データセットであるHumanVidを紹介する。
実世界のデータについては、インターネットから大量の実世界のビデオをコンパイルします。
合成データとして,10K3Dアバターを収集し,体形,肌のテクスチャ,衣服などの既存の資産を利用した。
論文 参考訳(メタデータ) (2024-07-24T17:15:58Z) - WHAM: Reconstructing World-grounded Humans with Accurate 3D Motion [43.95997922499137]
WHAM(World-grounded Humans with Accurate Motion)は、ビデオから世界座標系で3次元の人間の動きを再構成する。
SLAM法から推定されるカメラ角速度と人間の動きを用いて、身体のグローバルな軌跡を推定する。
複数のWildベンチマークで、既存の3Dモーションリカバリ手法よりも優れています。
論文 参考訳(メタデータ) (2023-12-12T18:57:46Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Decoupling Human and Camera Motion from Videos in the Wild [67.39432972193929]
本研究では,野生の映像から地球規模の人間の軌道を再構築する手法を提案する。
カメラと人間の動きを分離することで、人間を同じ世界座標系に配置することができる。
論文 参考訳(メタデータ) (2023-02-24T18:59:15Z) - D&D: Learning Human Dynamics from Dynamic Camera [55.60512353465175]
本稿では、物理の法則を活かしたD&D(Learning Human Dynamics from Dynamic Camera)を紹介する。
私たちのアプローチは完全にニューラルネットワークで、物理エンジンのオフライン最適化やシミュレーションなしで動作します。
論文 参考訳(メタデータ) (2022-09-19T06:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。