論文の概要: CXTrack: Improving 3D Point Cloud Tracking with Contextual Information
- arxiv url: http://arxiv.org/abs/2211.08542v1
- Date: Sat, 12 Nov 2022 11:29:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 15:12:03.675115
- Title: CXTrack: Improving 3D Point Cloud Tracking with Contextual Information
- Title(参考訳): CXTrack: コンテキスト情報による3Dポイントクラウドトラッキングの改善
- Authors: Tian-Xing Xu, Yuan-Chen Guo, Yu-Kun Lai, Song-Hai Zhang
- Abstract要約: 3Dオブジェクトトラッキングは、自律運転など、多くのアプリケーションにおいて重要な役割を果たす。
CXTrackは3次元オブジェクト追跡のためのトランスフォーマーベースのネットワークである。
CXTrackは29FPSで動作しながら最先端のトラッキング性能を実現する。
- 参考スコア(独自算出の注目度): 59.55870742072618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D single object tracking plays an essential role in many applications, such
as autonomous driving. It remains a challenging problem due to the large
appearance variation and the sparsity of points caused by occlusion and limited
sensor capabilities. Therefore, contextual information across two consecutive
frames is crucial for effective object tracking. However, points containing
such useful information are often overlooked and cropped out in existing
methods, leading to insufficient use of important contextual knowledge. To
address this issue, we propose CXTrack, a novel transformer-based network for
3D object tracking, which exploits ConteXtual information to improve the
tracking results. Specifically, we design a target-centric transformer network
that directly takes point features from two consecutive frames and the previous
bounding box as input to explore contextual information and implicitly
propagate target cues. To achieve accurate localization for objects of all
sizes, we propose a transformer-based localization head with a novel center
embedding module to distinguish the target from distractors. Extensive
experiments on three large-scale datasets, KITTI, nuScenes and Waymo Open
Dataset, show that CXTrack achieves state-of-the-art tracking performance while
running at 29 FPS.
- Abstract(参考訳): 3d単一物体追跡は、自動運転など多くのアプリケーションにおいて重要な役割を果たす。
外観のばらつきが大きいことや、咬合による点のスパーシティやセンサー能力の制限などにより、依然として課題となっている。
したがって、2つの連続するフレーム間のコンテキスト情報は、効果的なオブジェクト追跡に不可欠である。
しかし、そのような有用な情報を含む点はしばしば見過ごされ、既存の手法で抜け出され、重要な文脈知識の使用が不十分になる。
この問題に対処するために,CXTrackを提案する。CXTrackは3次元オブジェクト追跡のためのトランスフォーマーベースのネットワークで,ConteXtual情報を利用して追跡結果を改善する。
具体的には、2つの連続するフレームと前のバウンディングボックスから点特徴を直接取り出し、コンテキスト情報を探索し、ターゲットキューを暗黙的に伝播するターゲット中心トランスフォーマーネットワークを設計する。
そこで本稿では,あらゆる大きさの物体の正確な位置決めを実現するために,新しい中心埋め込みモジュールを備えたトランスベース位置決めヘッドを提案する。
KITTI、nuScenes、Waymo Open Datasetの3つの大規模なデータセットに対する大規模な実験は、CXTrackが29FPSで実行中に最先端のトラッキングパフォーマンスを達成することを示している。
関連論文リスト
- Open3DTrack: Towards Open-Vocabulary 3D Multi-Object Tracking [73.05477052645885]
オープンな語彙的3Dトラッキングを導入し、3Dトラッキングの範囲を広げて、定義済みのカテゴリを超えてオブジェクトを含める。
本稿では,オープン語彙機能を3次元トラッキングフレームワークに統合し,オブジェクトクラスが見えないように一般化する手法を提案する。
論文 参考訳(メタデータ) (2024-10-02T15:48:42Z) - 3D-Aware Instance Segmentation and Tracking in Egocentric Videos [107.10661490652822]
エゴセントリックなビデオは、3Dシーンの理解にユニークな課題を提示する。
本稿では,一対一のビデオにおけるインスタンスのセグメンテーションとトラッキングに対する新しいアプローチを提案する。
空間的および時間的手がかりを取り入れることで、最先端の2D手法と比較して優れた性能が得られる。
論文 参考訳(メタデータ) (2024-08-19T10:08:25Z) - VoxelTrack: Exploring Voxel Representation for 3D Point Cloud Object Tracking [3.517993407670811]
現在のLiDARポイントクラウドベースの3Dオブジェクトトラッキング(SOT)手法は、通常、ポイントベースの表現ネットワークに依存している。
本稿では,VoxelTrackと呼ばれる新しいトラッキングフレームワークを紹介する。
本質的に乱れた点雲を3Dボクセルにボクセル化することで、VoxelTrackは正確で堅牢な3D空間情報を効果的にモデル化する。
論文 参考訳(メタデータ) (2024-08-05T06:38:43Z) - DenseTrack: Drone-based Crowd Tracking via Density-aware Motion-appearance Synergy [33.57923199717605]
ドローンによる群集追跡は、空中からの物体の正確な識別と監視に困難に直面している。
これらの課題に対処するために、密度認識追跡(DenseTrack)フレームワークを提案する。
DenseTrackは、群衆のカウントに乗じて、オブジェクトの位置を正確に決定し、視覚とモーションのキューを混ぜて、小規模オブジェクトの追跡を改善する。
論文 参考訳(メタデータ) (2024-07-24T13:39:07Z) - STTracker: Spatio-Temporal Tracker for 3D Single Object Tracking [11.901758708579642]
ポイントクラウドによる3Dオブジェクトのトラッキングは、3Dコンピュータビジョンにおいて重要なタスクである。
以前の方法は、通常、最後の2つのフレームを入力し、前のフレームのテンプレートポイントクラウドと現在のフレームの検索エリアポイントクラウドを使用する。
論文 参考訳(メタデータ) (2023-06-30T07:25:11Z) - Exploiting More Information in Sparse Point Cloud for 3D Single Object
Tracking [9.693724357115762]
3Dオブジェクトトラッキングは、3Dコンピュータビジョンにおける重要なタスクである。
点雲の空間性は、類似性を計算し、対象を見つけるのを難しくする。
本稿では3次元オブジェクト追跡のためのスパース・トゥ・デンス・トランスフォーマー・ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-02T13:38:30Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Track to Detect and Segment: An Online Multi-Object Tracker [81.15608245513208]
TraDeSは、エンドツーエンドの検出を支援するために追跡の手がかりを利用するオンライン共同検出および追跡モデルです。
TraDeSは、以前のオブジェクトの機能を伝播するために使用されるコストボリュームでオブジェクト追跡オフセットを推測します。
論文 参考訳(メタデータ) (2021-03-16T02:34:06Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。