論文の概要: Tracking People by Predicting 3D Appearance, Location & Pose
- arxiv url: http://arxiv.org/abs/2112.04477v1
- Date: Wed, 8 Dec 2021 18:57:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-09 15:20:44.694657
- Title: Tracking People by Predicting 3D Appearance, Location & Pose
- Title(参考訳): 3D画像, 位置, 姿勢の予測による人物の追跡
- Authors: Jathushan Rajasegaran, Georgios Pavlakos, Angjoo Kanazawa, Jitendra
Malik
- Abstract要約: 私たちはまず、1つのフレームから3Dまで、堅牢な方法で人々を持ち上げます。
人を追跡すると、時間とともに3Dの観察結果をトラックレット表現で収集する。
これらのモデルを用いて、トラックレットの将来状態を予測します。
- 参考スコア(独自算出の注目度): 78.97070307547283
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present an approach for tracking people in monocular
videos, by predicting their future 3D representations. To achieve this, we
first lift people to 3D from a single frame in a robust way. This lifting
includes information about the 3D pose of the person, his or her location in
the 3D space, and the 3D appearance. As we track a person, we collect 3D
observations over time in a tracklet representation. Given the 3D nature of our
observations, we build temporal models for each one of the previous attributes.
We use these models to predict the future state of the tracklet, including 3D
location, 3D appearance, and 3D pose. For a future frame, we compute the
similarity between the predicted state of a tracklet and the single frame
observations in a probabilistic manner. Association is solved with simple
Hungarian matching, and the matches are used to update the respective
tracklets. We evaluate our approach on various benchmarks and report
state-of-the-art results.
- Abstract(参考訳): 本稿では, モノクロ映像における人物の追跡に, 将来の3D表現を予測してアプローチを提案する。
これを実現するために、まず1つのフレームから3dに堅牢な方法で人々を持ち上げます。
このリフトには、人の3Dポーズ、彼の3D空間における位置、および3D外観に関する情報が含まれる。
人物を追跡すると、トラックレット表現で時間とともに3dの観察を収集する。
観測の3d特質を考えると、私たちは以前の属性のそれぞれに時間モデルを構築します。
これらのモデルを用いて,3D位置,3D外観,3Dポーズなど,トラックレットの将来状態を予測する。
将来のフレームに対しては,トラックレットの予測状態と単一フレーム観測との類似性を確率論的に計算する。
アソシエーションは単純なハンガリーのマッチングで解決され、マッチは各トラックレットを更新するために使用される。
様々なベンチマークにアプローチを評価し,その結果を報告する。
関連論文リスト
- TAPVid-3D: A Benchmark for Tracking Any Point in 3D [63.060421798990845]
我々は,3Dにおける任意の点の追跡作業を評価するための新しいベンチマークTAPVid-3Dを導入する。
このベンチマークは、モノクロビデオから正確な3Dの動きと表面の変形を理解する能力を改善するためのガイドポストとして機能する。
論文 参考訳(メタデータ) (2024-07-08T13:28:47Z) - Time3D: End-to-End Joint Monocular 3D Object Detection and Tracking for
Autonomous Driving [3.8073142980733]
本稿では,モノクローナルビデオのみからエンドツーエンドに3D検出と3D追跡を共同で行うことを提案する。
Time3Dは21.4%のAMOTA、13.6%のAMOTPをnuScenesの3D追跡ベンチマークで達成し、全競合を抜いた。
論文 参考訳(メタデータ) (2022-05-30T06:41:10Z) - Point2Seq: Detecting 3D Objects as Sequences [58.63662049729309]
我々は、ポイントクラウドから3次元オブジェクトを検出するためのシンプルで効果的なフレームワーク、Point2Seqを提案する。
我々は,各3Dオブジェクトを単語列とみなし,その3Dオブジェクト検出タスクを,自動回帰的に3Dシーンからの単語の復号化として再構成する。
論文 参考訳(メタデータ) (2022-03-25T00:20:31Z) - Tracking People with 3D Representations [78.97070307547283]
ビデオ中の複数の人物を追跡する新しい手法を提案する。
従来の2次元表現を用いたアプローチとは違って,3次元空間における人物の3次元表現を用いる。
これらの環境下での3次元表現は2次元表現よりも効果的であることがわかった。
論文 参考訳(メタデータ) (2021-11-15T16:15:21Z) - Learning Temporal 3D Human Pose Estimation with Pseudo-Labels [3.0954251281114513]
自己監督型3次元ポーズ推定のための簡易かつ効果的なアプローチを提案する。
我々は、マルチビューカメラシステムの2Dボディポーズ推定を三角測量に頼っている。
提案手法はHuman3.6MとMPI-INF-3DHPベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2021-10-14T17:40:45Z) - VoxelTrack: Multi-Person 3D Human Pose Estimation and Tracking in the
Wild [98.69191256693703]
本稿では,VoxelTrackを用いて,多人数の3次元ポーズ推定と,広義のベースラインで分離された少数のカメラからの追跡を行う。
マルチブランチネットワークを使用して、環境中のすべての人に3Dポーズと再識別機能(Re-ID)を共同で推定する。
これは、Shelf、Campus、CMU Panopticの3つの公開データセットに対して、最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2021-08-05T08:35:44Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Tracking Emerges by Looking Around Static Scenes, with Neural 3D Mapping [23.456046776979903]
本稿では,任意の場面(静的あるいは動的)における静止点のマルチビューデータを利用して,ニューラル3Dマッピングモジュールを学習することを提案する。
ニューラル3Dマッパーは、RGB-Dデータを入力として消費し、深い特徴の3Dボクセルグリッドを出力として生成する。
教師なし3Dオブジェクトトラッカーは、教師なし2Dと2.5Dのトラッカーよりも優れており、教師なし3Dオブジェクトトラッカーの精度に近づいていることを示す。
論文 参考訳(メタデータ) (2020-08-04T02:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。