論文の概要: 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds
- arxiv url: http://arxiv.org/abs/2211.00746v1
- Date: Tue, 1 Nov 2022 20:59:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 13:19:21.539698
- Title: 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds
- Title(参考訳): 3DMODT:3次元点群における共同検出・追跡のための注意誘導アフィニティ
- Authors: Jyoti Kini, Ajmal Mian, Mubarak Shah
- Abstract要約: 本稿では,3次元点雲における複数物体の同時検出と追跡手法を提案する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
- 参考スコア(独自算出の注目度): 95.54285993019843
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose a method for joint detection and tracking of multiple objects in
3D point clouds, a task conventionally treated as a two-step process comprising
object detection followed by data association. Our method embeds both steps
into a single end-to-end trainable network eliminating the dependency on
external object detectors. Our model exploits temporal information employing
multiple frames to detect objects and track them in a single network, thereby
making it a utilitarian formulation for real-world scenarios. Computing
affinity matrix by employing features similarity across consecutive point cloud
scans forms an integral part of visual tracking. We propose an attention-based
refinement module to refine the affinity matrix by suppressing erroneous
correspondences. The module is designed to capture the global context in
affinity matrix by employing self-attention within each affinity matrix and
cross-attention across a pair of affinity matrices. Unlike competing
approaches, our network does not require complex post-processing algorithms,
and processes raw LiDAR frames to directly output tracking results. We
demonstrate the effectiveness of our method on the three tracking benchmarks:
JRDB, Waymo, and KITTI. Experimental evaluations indicate the ability of our
model to generalize well across datasets.
- Abstract(参考訳): 本研究では,3次元点群における複数物体の同時検出と追跡を行う手法を提案する。
本手法では,両ステップを1つのエンドツーエンドトレーサブルネットワークに組み込むことにより,外部オブジェクト検出器への依存性を解消する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
連続点クラウドスキャンにおける特徴類似性を利用した計算親和性行列は、視覚的トラッキングの不可欠な部分を形成する。
誤対応を抑えることで親和性行列を洗練するための注意に基づく改良モジュールを提案する。
このモジュールは、各アフィニティマトリックス内の自己アフィニティと、一対のアフィニティマトリックス間のクロスアフィニティを用いて、アフィニティマトリックスにおける大域的コンテキストをキャプチャするように設計されている。
競合するアプローチとは異なり、我々のネットワークは複雑な後処理アルゴリズムを必要とせず、追跡結果を直接出力するために生のLiDARフレームを処理する。
提案手法の有効性を,JRDB,Waymo,KITTIの3つの追跡ベンチマークで示す。
実験的な評価は、モデルがデータセットをまたいでうまく一般化する能力を示しています。
関連論文リスト
- Simultaneous Multiple Object Detection and Pose Estimation using 3D
Model Infusion with Monocular Vision [21.710141497071373]
複数物体の検出とポーズ推定はコンピュータビジョンの重要なタスクである。
単眼視と3Dモデルを用いた同時ニューラルモデリングを提案する。
我々の同時多重物体検出・ポース推定ネットワーク(SMOPE-Net)は、エンドツーエンドのトレーニング可能なマルチタスクネットワークである。
論文 参考訳(メタデータ) (2022-11-21T05:18:56Z) - Ret3D: Rethinking Object Relations for Efficient 3D Object Detection in
Driving Scenes [82.4186966781934]
Ret3Dと呼ばれるシンプルで効率的で効果的な2段階検出器を導入する。
Ret3Dの中核は、新しいフレーム内およびフレーム間関係モジュールの利用である。
無視できる余分なオーバーヘッドにより、Ret3Dは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-18T03:48:58Z) - The Devil is in the Task: Exploiting Reciprocal Appearance-Localization
Features for Monocular 3D Object Detection [62.1185839286255]
低コストのモノクル3D物体検出は、自律運転において基本的な役割を果たす。
DFR-Netという動的特徴反射ネットワークを導入する。
我々は、KITTIテストセットの全ての単分子3D物体検出器の中で、第1位にランク付けする。
論文 参考訳(メタデータ) (2021-12-28T07:31:18Z) - Joint Multi-Object Detection and Tracking with Camera-LiDAR Fusion for
Autonomous Driving [6.396288020763144]
カメラとLiDARの融合による多対象追跡(MOT)は、オブジェクト検出、親和性計算、データ関連の正確な結果をリアルタイムに要求する。
本稿では、オンライン共同検出・追跡手法と自律運転用ロバストデータアソシエーションを備えた効率的なマルチモーダルMOTフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-10T11:17:05Z) - M3DeTR: Multi-representation, Multi-scale, Mutual-relation 3D Object
Detection with Transformers [78.48081972698888]
M3DeTRは、マルチスケールのフィーチャーピラミッドに基づいて、異なるポイントクラウド表現と異なる機能スケールを組み合わせたものです。
M3DeTRは、複数のポイントクラウド表現、機能スケール、およびトランスを使用してポイントクラウド間の相互関係を同時にモデル化する最初のアプローチです。
論文 参考訳(メタデータ) (2021-04-24T06:48:23Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - A two-stage data association approach for 3D Multi-object Tracking [0.0]
画像に基づくトラッキングを3D環境に適応させる2段階データアソシエーション手法を開発した。
提案手法は,NuScenes 検証セットにおいて0.587 AMOTA を達成し,データアソシエーションのための一段二部マッチングを用いてベースラインより優れる。
論文 参考訳(メタデータ) (2021-01-21T15:50:17Z) - Relation3DMOT: Exploiting Deep Affinity for 3D Multi-Object Tracking
from View Aggregation [8.854112907350624]
3Dマルチオブジェクトトラッキングは、自律ナビゲーションにおいて重要な役割を果たす。
多くのアプローチでは、トラッキングのための2次元RGBシーケンス内のオブジェクトを検出するが、これは3次元空間内のオブジェクトをローカライズする際の信頼性の欠如である。
本稿では,隣接フレーム内の各オブジェクト間の相関をよりよく活用するために,RelationConvという新しい畳み込み演算を提案する。
論文 参考訳(メタデータ) (2020-11-25T16:14:40Z) - Graph Neural Networks for 3D Multi-Object Tracking [28.121708602059048]
3次元多物体追跡(MOT)は自律システムにとって不可欠である。
最近の作業では、しばしばトラッキング・バイ・検出パイプラインを使用します。
本稿では,グラフニューラルネットワークを導入した新しい特徴相互作用機構を提案する。
論文 参考訳(メタデータ) (2020-08-20T17:55:41Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。