論文の概要: FutrTrack: A Camera-LiDAR Fusion Transformer for 3D Multiple Object Tracking
- arxiv url: http://arxiv.org/abs/2510.19981v1
- Date: Wed, 22 Oct 2025 19:25:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:16.724615
- Title: FutrTrack: A Camera-LiDAR Fusion Transformer for 3D Multiple Object Tracking
- Title(参考訳): FutrTrack:3D多目的追跡のためのカメラ-LiDAR融合変換器
- Authors: Martha Teiko Teye, Ori Maoz, Matthias Rottmann,
- Abstract要約: FutrTrackは、トランスフォーマーベースのスムーズと融合駆動のトラッカーを導入することで、既存の3D検出器上に構築されている。
我々のフュージョントラッカーは、複数のカメラとLiDARからのマルチモーダルバードアイビュー(BEV)フュージョン機能とバウンディングボックスを統合している。
FutrTrackは、3D MOTベンチマークで強力なパフォーマンスを実現し、競合精度を維持しながらアイデンティティスイッチを削減している。
- 参考スコア(独自算出の注目度): 4.65812324892521
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose FutrTrack, a modular camera-LiDAR multi-object tracking framework that builds on existing 3D detectors by introducing a transformer-based smoother and a fusion-driven tracker. Inspired by query-based tracking frameworks, FutrTrack employs a multimodal two-stage transformer refinement and tracking pipeline. Our fusion tracker integrates bounding boxes with multimodal bird's-eye-view (BEV) fusion features from multiple cameras and LiDAR without the need for an explicit motion model. The tracker assigns and propagates identities across frames, leveraging both geometric and semantic cues for robust re-identification under occlusion and viewpoint changes. Prior to tracking, we refine sequences of bounding boxes with a temporal smoother over a moving window to refine trajectories, reduce jitter, and improve spatial consistency. Evaluated on nuScenes and KITTI, FutrTrack demonstrates that query-based transformer tracking methods benefit significantly from multimodal sensor features compared with previous single-sensor approaches. With an aMOTA of 74.7 on the nuScenes test set, FutrTrack achieves strong performance on 3D MOT benchmarks, reducing identity switches while maintaining competitive accuracy. Our approach provides an efficient framework for improving transformer-based trackers to compete with other neural-network-based methods even with limited data and without pretraining.
- Abstract(参考訳): 本稿では,既存の3D検出器をベースとしたカメラ・LiDAR多対象追跡フレームワークであるFutrTrackを提案する。
クエリベースのトラッキングフレームワークにインスパイアされたFutrTrackは、マルチモーダルな2段階トランスフォーマーの洗練とトラッキングパイプラインを採用している。
我々のフュージョントラッカーは、複数のカメラとLiDARからのマルチモーダルバードアイビュー(BEV)融合機能とバウンディングボックスを統合し、明示的なモーションモデルを必要としない。
トラッカーはフレームをまたいでアイデンティティを割り当て、伝播し、幾何学的および意味的な手がかりの両方を活用して、排他的および視点的変化の下で堅牢な再識別を行う。
追尾前,移動ウィンドウ上に時間的スムーズな境界ボックスの列を洗練し,軌道を洗練し,ジッタを低減し,空間的整合性を向上させる。
FutrTrackはnuScenesとKITTIに基づいて、クエリベースのトランスフォーマートラッキング手法は、従来のシングルセンサーアプローチと比較して、マルチモーダルセンサー機能から大きな恩恵を受けることを示した。
nuScenesテストセットのAMOTAは74.7で、FutrTrackは3D MOTベンチマークで高いパフォーマンスを実現し、競合精度を維持しながらアイデンティティスイッチを低減した。
我々の手法は、トランスフォーマーベースのトラッカーを改善するための効率的なフレームワークを提供し、限られたデータと事前トレーニングなしで他のニューラルネットワークベースの手法と競合する。
関連論文リスト
- LiDAR MOT-DETR: A LiDAR-based Two-Stage Transformer for 3D Multiple Object Tracking [4.65812324892521]
ライダーをベースとした2段式DETRインバータ,スムーズかつトラッカーを提案する。
よりスムーズなステージは、移動中の時間窓を越えて、市販の検出器からライダー物体の検出を洗練させる。
トラッカーステージはDETRベースのアテンションブロックを使用して、トラックされたオブジェクトと、ポイントクラウドをコンテキストとして洗練された検出とを関連付けることで、トラックを時間にわたって維持する。
論文 参考訳(メタデータ) (2025-05-19T06:25:48Z) - CAMELTrack: Context-Aware Multi-cue ExpLoitation for Online Multi-Object Tracking [68.24998698508344]
CAMELはコンテキスト対応型マルチキューExpLoitationのための新しいアソシエイトモジュールである。
エンド・ツー・エンドの検知・バイ・トラック方式とは異なり,本手法は軽量かつ高速にトレーニングが可能であり,外部のオフ・ザ・シェルフモデルを活用することができる。
提案するオンライントラッキングパイプラインであるCAMELTrackは,複数のトラッキングベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-05-02T13:26:23Z) - CrossTracker: Robust Multi-modal 3D Multi-Object Tracking via Cross Correction [27.18612358750601]
CrossTrackerは、オンラインマルチモーダル3DMOTのための新しい2段階パラダイムである。
われわれの実験は、CrossTrackerが18の競合相手よりも優れていることを実証している。
論文 参考訳(メタデータ) (2024-11-28T01:36:29Z) - Bi-directional Adapter for Multi-modal Tracking [67.01179868400229]
汎用の双方向アダプタを用いたマルチモーダル視覚プロンプト追跡モデルを提案する。
我々は、モーダリティ固有の情報をあるモーダリティから別のモーダリティへ転送するための、シンプルだが効果的なライト・フィーチャー・アダプタを開発した。
本モデルでは,完全微調整法と素早い学習法の両方と比較して,追跡性能が優れている。
論文 参考訳(メタデータ) (2023-12-17T05:27:31Z) - TrajectoryFormer: 3D Object Tracking Transformer with Predictive
Trajectory Hypotheses [51.60422927416087]
3Dマルチオブジェクトトラッキング(MOT)は、自律走行車やサービスロボットを含む多くのアプリケーションにとって不可欠である。
本稿では,新しいポイントクラウドベースの3DMOTフレームワークであるTrjectoryFormerを紹介する。
論文 参考訳(メタデータ) (2023-06-09T13:31:50Z) - You Only Need Two Detectors to Achieve Multi-Modal 3D Multi-Object Tracking [9.20064374262956]
提案手法は,2次元検出器と3次元検出器のみを用いて,ロバストなトラッキングを実現する。
多くの最先端のTBDベースのマルチモーダルトラッキング手法よりも正確であることが証明されている。
論文 参考訳(メタデータ) (2023-04-18T02:45:18Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - Modeling Continuous Motion for 3D Point Cloud Object Tracking [54.48716096286417]
本稿では,各トラックレットを連続ストリームとみなす新しいアプローチを提案する。
各タイムスタンプでは、現在のフレームだけがネットワークに送られ、メモリバンクに格納された複数フレームの履歴機能と相互作用する。
頑健な追跡のためのマルチフレーム機能の利用性を高めるために,コントラッシブシーケンス強化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-14T02:58:27Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。