論文の概要: Once Detected, Never Lost: Surpassing Human Performance in Offline LiDAR
based 3D Object Detection
- arxiv url: http://arxiv.org/abs/2304.12315v1
- Date: Mon, 24 Apr 2023 17:59:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 13:50:21.019979
- Title: Once Detected, Never Lost: Surpassing Human Performance in Offline LiDAR
based 3D Object Detection
- Title(参考訳): ひとたび検知されると、Never Lost:オフラインLiDARによる3Dオブジェクト検出における人的パフォーマンスの回避
- Authors: Lue Fan, Yuxue Yang, Yiming Mao, Feng Wang, Yuntao Chen, Naiyan Wang,
Zhaoxiang Zhang
- Abstract要約: 本稿では,高性能なオフラインLiDARによる3Dオブジェクト検出を実現することを目的とする。
まず、経験豊富な人間のアノテータが、トラック中心の視点でオブジェクトに注釈を付けるのを観察する。
従来のオブジェクト中心の視点ではなく,トラック中心の視点で高性能なオフライン検出器を提案する。
- 参考スコア(独自算出の注目度): 50.959453059206446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims for high-performance offline LiDAR-based 3D object detection.
We first observe that experienced human annotators annotate objects from a
track-centric perspective. They first label the objects with clear shapes in a
track, and then leverage the temporal coherence to infer the annotations of
obscure objects. Drawing inspiration from this, we propose a high-performance
offline detector in a track-centric perspective instead of the conventional
object-centric perspective. Our method features a bidirectional tracking module
and a track-centric learning module. Such a design allows our detector to infer
and refine a complete track once the object is detected at a certain moment. We
refer to this characteristic as "onCe detecTed, neveR Lost" and name the
proposed system CTRL. Extensive experiments demonstrate the remarkable
performance of our method, surpassing the human-level annotating accuracy and
the previous state-of-the-art methods in the highly competitive Waymo Open
Dataset without model ensemble. The code will be made publicly available at
https://github.com/tusen-ai/SST.
- Abstract(参考訳): 本稿では,高性能なオフラインLiDARによる3Dオブジェクト検出を実現することを目的とする。
まず、経験豊富な人間のアノテーションが、トラック中心の観点からオブジェクトに注釈を付けることを観察する。
彼らはまず、トラックに明確な形状のオブジェクトをラベル付けし、その後、時間的コヒーレンスを利用して不明瞭なオブジェクトのアノテーションを推測する。
そこで我々は,従来の物体中心の視点ではなく,トラック中心の視点で高性能なオフライン検出器を提案する。
本手法は,双方向トラッキングモジュールとトラック中心学習モジュールを備える。
このような設計により、物体が特定の瞬間に検出されると、検出者が完全な軌道を推測し、精査することができる。
この特徴を「onCe detecTed, neveR Lost」と呼び、提案するシステムCTRLを命名する。
モデルアンサンブルを伴わない高度競争力のあるWaymo Open Datasetにおいて,人間レベルのアノテート精度と従来の最先端手法を上回り,本手法の顕著な性能を示す実験を行った。
コードはhttps://github.com/tusen-ai/SSTで公開される。
関連論文リスト
- Vision-Language Guidance for LiDAR-based Unsupervised 3D Object Detection [16.09503890891102]
我々は,LiDAR点雲のみで動作する教師なし3次元検出手法を提案する。
我々は、クラスタリング、トラッキング、ボックステキスト、ラベルリファインメントなど、LiDARポイントクラウドの固有のCLI時間知識を活用している。
提案手法はオープンデータセット上での最先端の非教師なし3Dオブジェクト検出器よりも優れている。
論文 参考訳(メタデータ) (2024-08-07T14:14:53Z) - SeMoLi: What Moves Together Belongs Together [51.72754014130369]
動作手がかりに基づく半教師付き物体検出に挑戦する。
近年,移動物体の擬似ラベルインスタンスに対して,動きに基づくクラスタリング手法が適用可能であることが示唆された。
我々は、このアプローチを再考し、オブジェクト検出とモーションインスパイアされた擬似ラベルの両方が、データ駆動方式で取り組めることを示唆する。
論文 参考訳(メタデータ) (2024-02-29T18:54:53Z) - DetZero: Rethinking Offboard 3D Object Detection with Long-term
Sequential Point Clouds [55.755450273390004]
既存のオフボード3D検出器は、無限の逐次点雲を利用するために常にモジュラーパイプライン設計に従っている。
その結果, 物体の運動状態は, 物体中心の精製段階において必然的な課題となること, 物体の運動状態は, 物体軌道を十分に生成できないこと, 物体中心の精製段階において必然的な課題となること, の2つの理由から, オフボード型3D検出器の完全なポテンシャルは明らかにされていないことがわかった。
これらの問題に対処するために,DetZero という,オフボード型3次元物体検出の新たなパラダイムを提案する。
論文 参考訳(メタデータ) (2023-06-09T16:42:00Z) - Exploring Simple 3D Multi-Object Tracking for Autonomous Driving [10.921208239968827]
LiDARポイントクラウドにおける3Dマルチオブジェクトトラッキングは、自動運転車にとって重要な要素である。
既存の手法は、主にトラッキング・バイ・検出パイプラインに基づいており、検出アソシエーションのマッチングステップが必然的に必要である。
我々は,手作りの追跡パラダイムをシンプルにするために,原点雲からの共同検出と追跡のためのエンドツーエンドのトレーニング可能なモデルを提案する。
論文 参考訳(メタデータ) (2021-08-23T17:59:22Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - SESS: Self-Ensembling Semi-Supervised 3D Object Detection [138.80825169240302]
具体的には、ラベルのない新しい未知のデータに基づくネットワークの一般化を促進するための、徹底的な摂動スキームを設計する。
我々のSESSは、50%のラベル付きデータを用いて、最先端の完全教師付き手法と比較して、競争性能を達成している。
論文 参考訳(メタデータ) (2019-12-26T08:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。