論文の概要: Relation3DMOT: Exploiting Deep Affinity for 3D Multi-Object Tracking
from View Aggregation
- arxiv url: http://arxiv.org/abs/2011.12850v1
- Date: Wed, 25 Nov 2020 16:14:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 03:15:05.829415
- Title: Relation3DMOT: Exploiting Deep Affinity for 3D Multi-Object Tracking
from View Aggregation
- Title(参考訳): Relation3DMOT:ビューアグリゲーションによる3次元多物体追跡の深部親和性向上
- Authors: Can Chen, Luca Zanotti Fragonara and Antonios Tsourdos
- Abstract要約: 3Dマルチオブジェクトトラッキングは、自律ナビゲーションにおいて重要な役割を果たす。
多くのアプローチでは、トラッキングのための2次元RGBシーケンス内のオブジェクトを検出するが、これは3次元空間内のオブジェクトをローカライズする際の信頼性の欠如である。
本稿では,隣接フレーム内の各オブジェクト間の相関をよりよく活用するために,RelationConvという新しい畳み込み演算を提案する。
- 参考スコア(独自算出の注目度): 8.854112907350624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous systems need to localize and track surrounding objects in 3D space
for safe motion planning. As a result, 3D multi-object tracking (MOT) plays a
vital role in autonomous navigation. Most MOT methods use a
tracking-by-detection pipeline, which includes object detection and data
association processing. However, many approaches detect objects in 2D RGB
sequences for tracking, which is lack of reliability when localizing objects in
3D space. Furthermore, it is still challenging to learn discriminative features
for temporally-consistent detection in different frames, and the affinity
matrix is normally learned from independent object features without considering
the feature interaction between detected objects in the different frames. To
settle these problems, We firstly employ a joint feature extractor to fuse the
2D and 3D appearance features captured from both 2D RGB images and 3D point
clouds respectively, and then propose a novel convolutional operation, named
RelationConv, to better exploit the correlation between each pair of objects in
the adjacent frames, and learn a deep affinity matrix for further data
association. We finally provide extensive evaluation to reveal that our
proposed model achieves state-of-the-art performance on KITTI tracking
benchmark.
- Abstract(参考訳): 自律システムは、安全な動き計画のために3d空間内の周囲の物体をローカライズし追跡する必要がある。
その結果、3D多物体追跡(MOT)は自律ナビゲーションにおいて重要な役割を担っている。
ほとんどのmotメソッドは、オブジェクト検出とデータアソシエーション処理を含むトラッキングバイ検出パイプラインを使用する。
しかし,3次元空間におけるオブジェクトのローカライズには信頼性の欠如があるため,追跡のための2次元RGBシーケンス内のオブジェクトを検出する手法が多数存在する。
さらに、異なるフレームにおける時間的一貫性のある検出のための識別的特徴を学習することは依然として困難であり、アフィニティ行列は通常、異なるフレーム内の検出対象間の特徴的相互作用を考慮せずに独立したオブジェクト特徴から学習される。
これらの問題を解決するために,まず2d rgb像と3d点像の両方から抽出した2dと3dの外観特徴を融合するジョイント特徴抽出器を用い,隣り合うフレーム内の各2つのオブジェクト間の相関をよりよく活用する新しい畳み込み演算「relationconv」を提案し,さらなるデータ関連付けのために深い親和性行列を学習する。
提案手法は,KITTI追跡ベンチマークにおける最先端性能を実現する。
関連論文リスト
- 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds [95.54285993019843]
本稿では,3次元点雲における複数物体の同時検出と追跡手法を提案する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
論文 参考訳(メタデータ) (2022-11-01T20:59:38Z) - TripletTrack: 3D Object Tracking using Triplet Embeddings and LSTM [0.0]
3Dオブジェクトトラッキングは、自動運転システムにおいて重要なタスクである。
本稿では,3次元物体追跡における3重項埋め込みと動作表現の併用について検討する。
論文 参考訳(メタデータ) (2022-10-28T15:23:50Z) - CMR3D: Contextualized Multi-Stage Refinement for 3D Object Detection [57.44434974289945]
本稿では,3次元オブジェクト検出(CMR3D)フレームワークのためのコンテキスト型マルチステージリファインメントを提案する。
我々のフレームワークは3Dシーンを入力として取り、シーンの有用なコンテキスト情報を明示的に統合しようと試みている。
3Dオブジェクトの検出に加えて,3Dオブジェクトカウント問題に対するフレームワークの有効性について検討する。
論文 参考訳(メタデータ) (2022-09-13T05:26:09Z) - Time3D: End-to-End Joint Monocular 3D Object Detection and Tracking for
Autonomous Driving [3.8073142980733]
本稿では,モノクローナルビデオのみからエンドツーエンドに3D検出と3D追跡を共同で行うことを提案する。
Time3Dは21.4%のAMOTA、13.6%のAMOTPをnuScenesの3D追跡ベンチマークで達成し、全競合を抜いた。
論文 参考訳(メタデータ) (2022-05-30T06:41:10Z) - Homography Loss for Monocular 3D Object Detection [54.04870007473932]
ホログラフィーロス(Homography Loss)と呼ばれる,2次元情報と3次元情報の両方を利用する識別可能なロス関数を提案する。
提案手法は,KITTI 3Dデータセットにおいて,他の最先端技術と比較して高い性能を示す。
論文 参考訳(メタデータ) (2022-04-02T03:48:03Z) - Exploring Optical-Flow-Guided Motion and Detection-Based Appearance for
Temporal Sentence Grounding [61.57847727651068]
テンポラルな文グラウンドディングは、与えられた文クエリに従って、意図しないビデオのターゲットセグメントをセマンティックにローカライズすることを目的としている。
これまでのほとんどの研究は、ビデオ全体のフレーム全体のフレームレベルの特徴を学習することに集中しており、それらをテキスト情報と直接一致させる。
我々は,光フロー誘導型モーションアウェア,検出ベース外観アウェア,3D認識オブジェクトレベル機能を備えた,動き誘導型3Dセマンティック推論ネットワーク(MA3SRN)を提案する。
論文 参考訳(メタデータ) (2022-03-06T13:57:09Z) - M3DSSD: Monocular 3D Single Stage Object Detector [82.25793227026443]
特徴アライメントと非対称非局所的注意を有するモノクロ3次元単段物体検出器(M3DSSD)を提案する。
提案したM3DSSDは,KITTIデータセット上のモノラルな3Dオブジェクト検出手法よりも大幅に性能が向上する。
論文 参考訳(メタデータ) (2021-03-24T13:09:11Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - A two-stage data association approach for 3D Multi-object Tracking [0.0]
画像に基づくトラッキングを3D環境に適応させる2段階データアソシエーション手法を開発した。
提案手法は,NuScenes 検証セットにおいて0.587 AMOTA を達成し,データアソシエーションのための一段二部マッチングを用いてベースラインより優れる。
論文 参考訳(メタデータ) (2021-01-21T15:50:17Z) - Graph Neural Networks for 3D Multi-Object Tracking [28.121708602059048]
3次元多物体追跡(MOT)は自律システムにとって不可欠である。
最近の作業では、しばしばトラッキング・バイ・検出パイプラインを使用します。
本稿では,グラフニューラルネットワークを導入した新しい特徴相互作用機構を提案する。
論文 参考訳(メタデータ) (2020-08-20T17:55:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。