論文の概要: TripletTrack: 3D Object Tracking using Triplet Embeddings and LSTM
- arxiv url: http://arxiv.org/abs/2210.16204v1
- Date: Fri, 28 Oct 2022 15:23:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 16:33:12.982524
- Title: TripletTrack: 3D Object Tracking using Triplet Embeddings and LSTM
- Title(参考訳): TripletTrack: Triplet EmbeddingsとLSTMを用いた3次元オブジェクト追跡
- Authors: Nicola Marinello (1), Marc Proesmans (1 and 3), Luc Van Gool (1 and 2
and 3) ((1) KU Leuven/ESAT-PSI, (2) ETH Zurich/CVL, (3) TRACE vzw)
- Abstract要約: 3Dオブジェクトトラッキングは、自動運転システムにおいて重要なタスクである。
本稿では,3次元物体追跡における3重項埋め込みと動作表現の併用について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: 3D object tracking is a critical task in autonomous driving systems. It plays
an essential role for the system's awareness about the surrounding environment.
At the same time there is an increasing interest in algorithms for autonomous
cars that solely rely on inexpensive sensors, such as cameras. In this paper we
investigate the use of triplet embeddings in combination with motion
representations for 3D object tracking. We start from an off-the-shelf 3D
object detector, and apply a tracking mechanism where objects are matched by an
affinity score computed on local object feature embeddings and motion
descriptors. The feature embeddings are trained to include information about
the visual appearance and monocular 3D object characteristics, while motion
descriptors provide a strong representation of object trajectories. We will
show that our approach effectively re-identifies objects, and also behaves
reliably and accurately in case of occlusions, missed detections and can detect
re-appearance across different field of views. Experimental evaluation shows
that our approach outperforms state-of-the-art on nuScenes by a large margin.
We also obtain competitive results on KITTI.
- Abstract(参考訳): 3Dオブジェクトトラッキングは、自動運転システムにおいて重要なタスクである。
システムは周囲の環境に対する認識に不可欠な役割を担っている。
同時に、カメラなどの安価なセンサーのみに依存する自動運転車のアルゴリズムへの関心が高まっている。
本稿では,3次元物体追跡におけるトリプルト埋め込みと運動表現の組み合わせについて検討する。
既製の3Dオブジェクト検出器から始めて,物体を局所的な物体特徴埋め込みと運動記述子で計算した親和性スコアで一致させるトラッキング機構を適用する。
特徴埋め込みは、視覚的な外観とモノクロの3dオブジェクト特性に関する情報を含むように訓練され、モーションディスクリプタはオブジェクトの軌跡の強い表現を提供する。
提案手法は,オブジェクトを効果的に再識別すると同時に,咬合や検出の欠如に対して確実に正確に動作し,異なる視野で再出現を検知できることを示す。
実験により,本手法はnuScenesの最先端を大きなマージンで上回ることがわかった。
また,KITTIの競争結果も得られた。
関連論文リスト
- SeSame: Simple, Easy 3D Object Detection with Point-Wise Semantics [0.7373617024876725]
自律運転では、3Dオブジェクト検出は、経路計画や動き推定を含む下流タスクに対してより正確な情報を提供する。
本稿では,既存のLiDARのみに基づく3Dオブジェクト検出における意味情報の強化を目的としたSeSameを提案する。
KITTIオブジェクト検出ベンチマークにおいて,提案手法の有効性を示す実験を行った。
論文 参考訳(メタデータ) (2024-03-11T08:17:56Z) - SeMoLi: What Moves Together Belongs Together [51.72754014130369]
動作手がかりに基づく半教師付き物体検出に挑戦する。
近年,移動物体の擬似ラベルインスタンスに対して,動きに基づくクラスタリング手法が適用可能であることが示唆された。
我々は、このアプローチを再考し、オブジェクト検出とモーションインスパイアされた擬似ラベルの両方が、データ駆動方式で取り組めることを示唆する。
論文 参考訳(メタデータ) (2024-02-29T18:54:53Z) - Delving into Motion-Aware Matching for Monocular 3D Object Tracking [81.68608983602581]
異なる時間軸に沿った物体の運動キューが3次元多物体追跡において重要であることが判明した。
3つの動き認識コンポーネントからなるフレームワークであるMoMA-M3Tを提案する。
我々はnuScenesとKITTIデータセットに関する広範な実験を行い、MoMA-M3Tが最先端の手法と競合する性能を発揮することを実証した。
論文 参考訳(メタデータ) (2023-08-22T17:53:58Z) - High-level camera-LiDAR fusion for 3D object detection with machine
learning [0.0]
本稿では,自律運転などの応用において重要な3次元物体検出問題に取り組む。
モノクロカメラとLiDARデータを組み合わせた機械学習パイプラインを使用して、動くプラットフォームの周囲の3D空間内の車両を検出する。
本結果は,検証セットに対して効率よく精度の高い推定を行い,全体の精度は87.1%となった。
論文 参考訳(メタデータ) (2021-05-24T01:57:34Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Relation3DMOT: Exploiting Deep Affinity for 3D Multi-Object Tracking
from View Aggregation [8.854112907350624]
3Dマルチオブジェクトトラッキングは、自律ナビゲーションにおいて重要な役割を果たす。
多くのアプローチでは、トラッキングのための2次元RGBシーケンス内のオブジェクトを検出するが、これは3次元空間内のオブジェクトをローカライズする際の信頼性の欠如である。
本稿では,隣接フレーム内の各オブジェクト間の相関をよりよく活用するために,RelationConvという新しい畳み込み演算を提案する。
論文 参考訳(メタデータ) (2020-11-25T16:14:40Z) - Kinematic 3D Object Detection in Monocular Video [123.7119180923524]
運動運動を注意深く利用して3次元位置決めの精度を向上させるモノクロ映像を用いた3次元物体検出法を提案する。
我々は、KITTI自動運転データセット内のモノクロ3次元物体検出とバードアイビュータスクの最先端性能を達成する。
論文 参考訳(メタデータ) (2020-07-19T01:15:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。