論文の概要: SpOT: Spatiotemporal Modeling for 3D Object Tracking
- arxiv url: http://arxiv.org/abs/2207.05856v1
- Date: Tue, 12 Jul 2022 21:45:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 15:09:38.384881
- Title: SpOT: Spatiotemporal Modeling for 3D Object Tracking
- Title(参考訳): SpOT:3次元物体追跡のための時空間モデリング
- Authors: Colton Stearns, Davis Rempe, Jie Li, Rares Ambrus, Sergey Zakharov,
Vitor Guizilini, Yanchao Yang, Leonidas J Guibas
- Abstract要約: 3Dマルチオブジェクトトラッキングは、常にすべてのモバイル時間を特定することを目的としている。
現在の3Dトラッキング手法は、抽象化された情報と限られた歴史に依存している。
本研究では,空間的情報と時間的情報の両方を活用するシーンの全体的表現を開発する。
- 参考スコア(独自算出の注目度): 68.12017780034044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D multi-object tracking aims to uniquely and consistently identify all
mobile entities through time. Despite the rich spatiotemporal information
available in this setting, current 3D tracking methods primarily rely on
abstracted information and limited history, e.g. single-frame object bounding
boxes. In this work, we develop a holistic representation of traffic scenes
that leverages both spatial and temporal information of the actors in the
scene. Specifically, we reformulate tracking as a spatiotemporal problem by
representing tracked objects as sequences of time-stamped points and bounding
boxes over a long temporal history. At each timestamp, we improve the location
and motion estimates of our tracked objects through learned refinement over the
full sequence of object history. By considering time and space jointly, our
representation naturally encodes fundamental physical priors such as object
permanence and consistency across time. Our spatiotemporal tracking framework
achieves state-of-the-art performance on the Waymo and nuScenes benchmarks.
- Abstract(参考訳): 3dマルチオブジェクトトラッキングは、時間を通じてすべてのモバイルエンティティをユニークかつ一貫して識別することを目的としている。
この設定で利用可能な豊富な時空間情報にもかかわらず、現在の3Dトラッキング手法は主に抽象化された情報と制限された歴史、例えばシングルフレームオブジェクト境界ボックスに依存している。
本研究では,シーン内の俳優の空間的情報と時間的情報の両方を活用した交通シーンの総合表現を開発する。
具体的には,追跡対象を時間スタンプ点の列として表現し,長い時間的履歴のバウンディングボックスとして表現することで,時空間問題として追跡を再構成する。
それぞれのタイムスタンプで、追跡されたオブジェクトの位置と動きの見積もりを、オブジェクト履歴の完全なシーケンスで学習することで改善します。
時間と空間を共同で考えることで、我々の表現は自然にオブジェクトの永続性や時間間の一貫性といった基本的な物理前駆を符号化します。
我々の時空間追跡フレームワークはWaymoとnuScenesベンチマークで最先端のパフォーマンスを実現する。
関連論文リスト
- Delving into Motion-Aware Matching for Monocular 3D Object Tracking [81.68608983602581]
異なる時間軸に沿った物体の運動キューが3次元多物体追跡において重要であることが判明した。
3つの動き認識コンポーネントからなるフレームワークであるMoMA-M3Tを提案する。
我々はnuScenesとKITTIデータセットに関する広範な実験を行い、MoMA-M3Tが最先端の手法と競合する性能を発揮することを実証した。
論文 参考訳(メタデータ) (2023-08-22T17:53:58Z) - PointOdyssey: A Large-Scale Synthetic Dataset for Long-Term Point
Tracking [90.29143475328506]
本稿では,大規模合成データセットとデータ生成フレームワークであるPointOdysseyを紹介する。
私たちのゴールは、自然主義的な動きを持つ長いビデオに重点を置いて、最先端の技術を推し進めることです。
実世界のモーションキャプチャーデータを用いて変形可能なキャラクタをアニメーション化し、モーションキャプチャー環境に合わせて3Dシーンを構築し、リアルビデオ上で構造から抽出したトラジェクトリを用いてカメラ視点を描画する。
論文 参考訳(メタデータ) (2023-07-27T17:58:11Z) - TrajectoryFormer: 3D Object Tracking Transformer with Predictive
Trajectory Hypotheses [51.60422927416087]
3Dマルチオブジェクトトラッキング(MOT)は、自律走行車やサービスロボットを含む多くのアプリケーションにとって不可欠である。
本稿では,新しいポイントクラウドベースの3DMOTフレームワークであるTrjectoryFormerを紹介する。
論文 参考訳(メタデータ) (2023-06-09T13:31:50Z) - 3D-FCT: Simultaneous 3D Object Detection and Tracking Using Feature
Correlation [0.0]
3D-FCTは、時間情報を利用して3Dオブジェクトの検出と追跡の関連タスクを同時に実行するシームズネットワークアーキテクチャである。
提案手法は,最先端手法よりも5.57%mAPの改善が期待できるKITTI追跡データセットを用いて評価した。
論文 参考訳(メタデータ) (2021-10-06T06:36:29Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Tracking from Patterns: Learning Corresponding Patterns in Point Clouds
for 3D Object Tracking [34.40019455462043]
本稿では,時間点雲データから3次元オブジェクト対応を学習し,対応パターンから動き情報を推測する。
提案手法は,KITTIと大規模Nuscenesデータセットの双方において,既存の3次元追跡手法を超えている。
論文 参考訳(メタデータ) (2020-10-20T06:07:20Z) - A Graph Attention Spatio-temporal Convolutional Network for 3D Human
Pose Estimation in Video [7.647599484103065]
我々は,アテンション機構を用いた局所的グローバル空間情報のモデリングにより,人間の骨格における制約の学習を改善する。
提案手法は, 奥行きのあいまいさと自己閉塞性を効果的に軽減し, 半上半身推定を一般化し, 2次元から3次元映像のポーズ推定における競合性能を実現する。
論文 参考訳(メタデータ) (2020-03-11T14:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。