論文の概要: 3D Multi-Object Tracking Using Graph Neural Networks with Cross-Edge
Modality Attention
- arxiv url: http://arxiv.org/abs/2203.10926v1
- Date: Mon, 21 Mar 2022 12:44:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 16:04:25.223454
- Title: 3D Multi-Object Tracking Using Graph Neural Networks with Cross-Edge
Modality Attention
- Title(参考訳): エッジモードを考慮したグラフニューラルネットワークによる3次元多対象追跡
- Authors: Martin Buchner and Abhinav Valada
- Abstract要約: Batch3DMOTは、現実のシーンを、方向付き、非循環型、カテゴリー非結合な追跡グラフとして表現する。
モーダル間断続性を緩和するクロスエッジアテンション機構を用いたマルチモーダルグラフニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 9.150245363036165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online 3D multi-object tracking (MOT) has witnessed significant research
interest in recent years, largely driven by demand from the autonomous systems
community. However, 3D offline MOT is relatively less explored. Labeling 3D
trajectory scene data at a large scale while not relying on high-cost human
experts is still an open research question. In this work, we propose Batch3DMOT
that follows the tracking-by-detection paradigm and represents real-world
scenes as directed, acyclic, and category-disjoint tracking graphs that are
attributed using various modalities such as camera, LiDAR, and radar. We
present a multi-modal graph neural network that uses a cross-edge attention
mechanism mitigating modality intermittence, which translates into sparsity in
the graph domain. Additionally, we present attention-weighted convolutions over
frame-wise k-NN neighborhoods as suitable means to allow information exchange
across disconnected graph components. We evaluate our approach using various
sensor modalities and model configurations on the challenging nuScenes and
KITTI datasets. Extensive experiments demonstrate that our proposed approach
yields an overall improvement of 2.8% in the AMOTA score on nuScenes thereby
setting a new benchmark for 3D tracking methods and successfully enhances false
positive filtering.
- Abstract(参考訳): オンライン3D多目的追跡(MOT)は近年,自律システムコミュニティの要求に大きく引き起こされた,大きな研究関心を集めている。
しかし、3DオフラインMOTは比較的少ない。
高精度な人間専門家を頼らずに、大規模に3D軌跡データをラベル付けすることは、まだオープンな研究課題である。
本研究では,カメラ,LiDAR,レーダなどの様々なモダリティを用いて,実世界のシーンを指向性,非循環性,カテゴリー非結合性追跡グラフとして表現するBatch3DMOTを提案する。
本稿では,マルチモーダルグラフニューラルネットワークを提案する。このニューラルネットワークは,モーダル間欠点を緩和するクロスエッジアテンション機構を用いて,グラフ領域の疎度に変換する。
さらに,フレームワイドk-NN近傍における注目重み付き畳み込みを,非連結グラフコンポーネント間の情報交換に適した手段として提示する。
我々は,難解な nuScene データセットと KITTI データセットに基づいて,様々なセンサモードとモデル構成を用いてアプローチを評価する。
大規模な実験により,提案手法はnuScenes上でのAMOTAスコアの2.8%を総合的に改善し,新しい3次元トラッキング手法のベンチマークを設定し,偽陽性フィルタリングの精度を高めた。
関連論文リスト
- OV-Uni3DETR: Towards Unified Open-Vocabulary 3D Object Detection via Cycle-Modality Propagation [67.56268991234371]
OV-Uni3DETRは、様々なシナリオにおける最先端のパフォーマンスを達成し、既存のメソッドを平均6%以上上回っている。
コードと事前訓練されたモデルは、後にリリースされる。
論文 参考訳(メタデータ) (2024-03-28T17:05:04Z) - 3DMOTFormer: Graph Transformer for Online 3D Multi-Object Tracking [15.330384668966806]
最先端の3Dマルチオブジェクト追跡(MOT)アプローチは通常、Kalman Filterのような非学習モデルベースのアルゴリズムに依存している。
本稿では3DMOTFormerを提案する。この3D MOTフレームワークはトランスフォーマーアーキテクチャをベースに構築されている。
提案手法は, nuScenesバリデーションとテストスプリットでそれぞれ71.2%, AMOTA68.2%を達成している。
論文 参考訳(メタデータ) (2023-08-12T19:19:58Z) - Modeling Continuous Motion for 3D Point Cloud Object Tracking [54.48716096286417]
本稿では,各トラックレットを連続ストリームとみなす新しいアプローチを提案する。
各タイムスタンプでは、現在のフレームだけがネットワークに送られ、メモリバンクに格納された複数フレームの履歴機能と相互作用する。
頑健な追跡のためのマルチフレーム機能の利用性を高めるために,コントラッシブシーケンス強化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-14T02:58:27Z) - Unleash the Potential of Image Branch for Cross-modal 3D Object
Detection [67.94357336206136]
画像分岐のポテンシャルを2つの側面から解き放つことを目的として,新しい3Dオブジェクト検出器UPIDetを提案する。
まず、UPIDetは正規化された局所座標写像推定と呼ばれる新しい2次元補助タスクを導入する。
第2に,イメージブランチのトレーニング目標から逆転する勾配によって,ポイントクラウドバックボーンの表現能力を向上できることを見出した。
論文 参考訳(メタデータ) (2023-01-22T08:26:58Z) - 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds [95.54285993019843]
本稿では,3次元点雲における複数物体の同時検出と追跡手法を提案する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
論文 参考訳(メタデータ) (2022-11-01T20:59:38Z) - InterTrack: Interaction Transformer for 3D Multi-Object Tracking [9.283656931246645]
3Dマルチオブジェクトトラッキング(MOT)は、自動運転車にとって重要な問題である。
提案手法であるInterTrackは,データアソシエーションのための識別対象表現を生成する。
我々はnuScenes 3D MOTベンチマークのアプローチを検証する。
論文 参考訳(メタデータ) (2022-08-17T03:24:36Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Graph Neural Networks for 3D Multi-Object Tracking [28.121708602059048]
3次元多物体追跡(MOT)は自律システムにとって不可欠である。
最近の作業では、しばしばトラッキング・バイ・検出パイプラインを使用します。
本稿では,グラフニューラルネットワークを導入した新しい特徴相互作用機構を提案する。
論文 参考訳(メタデータ) (2020-08-20T17:55:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。