論文の概要: You Only Need Two Detectors to Achieve Multi-Modal 3D Multi-Object
Tracking
- arxiv url: http://arxiv.org/abs/2304.08709v1
- Date: Tue, 18 Apr 2023 02:45:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 16:02:53.858049
- Title: You Only Need Two Detectors to Achieve Multi-Modal 3D Multi-Object
Tracking
- Title(参考訳): マルチモーダルな3次元物体追跡を実現するには2つの検出器が必要だ
- Authors: Xiyang Wang, Jiawei He, Chunyun Fu, Ting Meng, Mingguang Huang
- Abstract要約: 本稿では,マルチモーダル融合に基づく新しいマルチオブジェクト追跡フレームワークを提案する。
このフレームワークは、古典的TBDパラダイムにおける複雑なデータアソシエーションプロセスを回避する。
提案手法は2つのモーダル検出器のみを用いてロバストな追跡を実現する。
- 参考スコア(独自算出の注目度): 8.34219107351442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Firstly, a new multi-object tracking framework is proposed in this paper
based on multi-modal fusion. By integrating object detection and multi-object
tracking into the same model, this framework avoids the complex data
association process in the classical TBD paradigm, and requires no additional
training. Secondly, confidence of historical trajectory regression is explored,
possible states of a trajectory in the current frame (weak object or strong
object) are analyzed and a confidence fusion module is designed to guide
non-maximum suppression of trajectory and detection for ordered association.
Finally, extensive experiments are conducted on the KITTI and Waymo datasets.
The results show that the proposed method can achieve robust tracking by using
only two modal detectors and it is more accurate than many of the latest TBD
paradigm-based multi-modal tracking methods. The source codes of the proposed
method are available at https://github.com/wangxiyang2022/YONTD-MOT
- Abstract(参考訳): まず,マルチモーダル融合(multi-modal fusion)に基づくマルチオブジェクト追跡フレームワークを提案する。
オブジェクト検出とマルチオブジェクト追跡を同一モデルに統合することにより、このフレームワークは従来のTBDパラダイムにおける複雑なデータ関連プロセスを避け、追加のトレーニングを必要としない。
次に、履歴軌道回帰の信頼性を探究し、現在のフレーム(弱物体または強物体)における軌道の可能性状態を分析し、信頼融合モジュールを、軌道の非最大抑制と順序関係の検出を導くように設計する。
最後に、KITTIとWaymoのデータセットについて広範な実験を行う。
提案手法は2つのモーダル検出器のみを用いてロバストなトラッキングが可能であり,最新のTBDパラダイムに基づくマルチモーダルトラッキング手法よりも精度が高いことを示す。
提案手法のソースコードはhttps://github.com/wangxiyang2022/yontd-motで入手できる。
関連論文リスト
- Bi-directional Adapter for Multi-modal Tracking [67.01179868400229]
汎用の双方向アダプタを用いたマルチモーダル視覚プロンプト追跡モデルを提案する。
我々は、モーダリティ固有の情報をあるモーダリティから別のモーダリティへ転送するための、シンプルだが効果的なライト・フィーチャー・アダプタを開発した。
本モデルでは,完全微調整法と素早い学習法の両方と比較して,追跡性能が優れている。
論文 参考訳(メタデータ) (2023-12-17T05:27:31Z) - 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds [95.54285993019843]
本稿では,3次元点雲における複数物体の同時検出と追跡手法を提案する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
論文 参考訳(メタデータ) (2022-11-01T20:59:38Z) - End-to-end Tracking with a Multi-query Transformer [96.13468602635082]
マルチオブジェクトトラッキング(MOT)は、時間とともにシーン内のオブジェクトの位置、外観、アイデンティティを同時に推論する必要がある課題である。
本研究の目的は、トラッキング・バイ・ディテクト・アプローチを超えて、未知のオブジェクト・クラスに対してもよく機能するクラスに依存しないトラッキングへと移行することである。
論文 参考訳(メタデータ) (2022-10-26T10:19:37Z) - Unified Transformer Tracker for Object Tracking [58.65901124158068]
異なるシナリオにおけるトラッキング問題に1つのパラダイムで対処するために,UTT(Unified Transformer Tracker)を提案する。
SOT(Single Object Tracking)とMOT(Multiple Object Tracking)の両方を対象とするトラックトランスフォーマーを開発した。
論文 参考訳(メタデータ) (2022-03-29T01:38:49Z) - Exploring Simple 3D Multi-Object Tracking for Autonomous Driving [10.921208239968827]
LiDARポイントクラウドにおける3Dマルチオブジェクトトラッキングは、自動運転車にとって重要な要素である。
既存の手法は、主にトラッキング・バイ・検出パイプラインに基づいており、検出アソシエーションのマッチングステップが必然的に必要である。
我々は,手作りの追跡パラダイムをシンプルにするために,原点雲からの共同検出と追跡のためのエンドツーエンドのトレーニング可能なモデルを提案する。
論文 参考訳(メタデータ) (2021-08-23T17:59:22Z) - Know Your Surroundings: Panoramic Multi-Object Tracking by Multimodality
Collaboration [56.01625477187448]
MMPAT(MultiModality PAnoramic Multi-object Tracking framework)を提案する。
2次元パノラマ画像と3次元点雲を入力とし、マルチモーダルデータを用いて目標軌道を推定する。
提案手法は,検出タスクと追跡タスクの両方においてMMPATが最高性能を達成するJRDBデータセット上で評価する。
論文 参考訳(メタデータ) (2021-05-31T03:16:38Z) - DEFT: Detection Embeddings for Tracking [3.326320568999945]
我々は,DEFT と呼ばれる効率的な関節検出・追跡モデルを提案する。
提案手法は,外見に基づくオブジェクトマッチングネットワークと,下層のオブジェクト検出ネットワークとの協調学習に依存している。
DEFTは2Dオンライントラッキングリーダーボードのトップメソッドに匹敵する精度とスピードを持っている。
論文 参考訳(メタデータ) (2021-02-03T20:00:44Z) - Probabilistic 3D Multi-Modal, Multi-Object Tracking for Autonomous
Driving [22.693895321632507]
異なる訓練可能なモジュールからなる確率的、マルチモーダル、マルチオブジェクトトラッキングシステムを提案する。
本手法はNuScenes Trackingデータセットの現在の状態を上回っていることを示した。
論文 参考訳(メタデータ) (2020-12-26T15:00:54Z) - Chained-Tracker: Chaining Paired Attentive Regression Results for
End-to-End Joint Multiple-Object Detection and Tracking [102.31092931373232]
そこで我々は,3つのサブタスク全てをエンド・ツー・エンドのソリューションに統合する簡単なオンラインモデルである Chained-Tracker (CTracker) を提案する。
鎖状構造と対の注意的回帰という2つの大きな特徴は、CTrackerをシンプルに、速く、効果的にする。
論文 参考訳(メタデータ) (2020-07-29T02:38:49Z) - End-to-End Multi-Object Tracking with Global Response Map [23.755882375664875]
画像シーケンス/映像を入力とし、学習対象の位置と追跡対象を直接出力する、完全にエンドツーエンドのアプローチを提案する。
具体的には,提案した多目的表現戦略により,グローバル応答マップをフレーム上で正確に生成することができる。
MOT16 と MOT17 のベンチマークによる実験結果から,提案したオンライントラッカーは,いくつかのトラッキング指標において最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-07-13T12:30:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。