論文の概要: Model-free Vehicle Tracking and State Estimation in Point Cloud
Sequences
- arxiv url: http://arxiv.org/abs/2103.06028v1
- Date: Wed, 10 Mar 2021 13:01:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-11 14:45:15.015663
- Title: Model-free Vehicle Tracking and State Estimation in Point Cloud
Sequences
- Title(参考訳): 点雲列におけるモデルフリー車両追跡と状態推定
- Authors: Ziqi Pang, Zhichao Li, Naiyan Wang
- Abstract要約: モデルフリーの単一オブジェクト追跡(SOT)という、この問題の新しい設定について研究する。
SOTは第1フレームのオブジェクト状態を入力とし、その後のフレームにおける状態推定と追跡を共同で解決する。
そこで我々は,点群登録,車両形状,動作優先度に基づく最適化アルゴリズムSOTrackerを提案する。
- 参考スコア(独自算出の注目度): 17.351635242415703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Estimating the states of surrounding traffic participants stays at the core
of autonomous driving. In this paper, we study a novel setting of this problem:
model-free single object tracking (SOT), which takes the object state in the
first frame as input, and jointly solves state estimation and tracking in
subsequent frames. The main purpose for this new setting is to break the strong
limitation of the popular "detection and tracking" scheme in multi-object
tracking. Moreover, we notice that shape completion by overlaying the point
clouds, which is a by-product of our proposed task, not only improves the
performance of state estimation but also has numerous applications. As no
benchmark for this task is available so far, we construct a new dataset
LiDAR-SOT and corresponding evaluation protocols based on the Waymo Open
dataset. We then propose an optimization-based algorithm called SOTracker based
on point cloud registration, vehicle shapes, and motion priors. Our
quantitative and qualitative results prove the effectiveness of our SOTracker
and reveal the challenging cases for SOT in point clouds, including the
sparsity of LiDAR data, abrupt motion variation, etc. Finally, we also explore
how the proposed task and algorithm may benefit other autonomous driving
applications, including simulating LiDAR scans, generating motion data, and
annotating optical flow. The code and protocols for our benchmark and algorithm
are available at https://github.com/TuSimple/LiDAR_SOT/ . A video demonstration
is at https://www.youtube.com/watch?v=BpHixKs91i8 .
- Abstract(参考訳): 周囲の交通参加者の状態を推定することは、自動運転の中核にとどまる。
本稿では,第1フレームのオブジェクト状態を入力としてモデルフリーの単一オブジェクトトラッキング(SOT)と,その後のフレームにおける状態推定とトラッキングを共同で解決する,この問題の新たな設定について検討する。
この新しい設定の主な目的は、マルチオブジェクトトラッキングにおける一般的な「検出と追跡」スキームの強い制限を破ることです。
さらに,提案するタスクの副産物である点群をオーバーレイすることで形状が完成し,状態推定の性能が向上するだけでなく,多数の応用例があることに気付いた。
このタスクのベンチマークは今のところ利用できないため、新しいデータセットLiDAR-SOTとWaymo Openデータセットに基づいた対応する評価プロトコルを構築しています。
そこで我々は,点群登録,車両形状,動作優先度に基づく最適化アルゴリズムSOTrackerを提案する。
SOTrackerの有効性を定量的かつ定性的に証明し、LiDARデータの空間性や急激な動きの変化などを含む点雲におけるSOTの難問を明らかにする。
最後に,提案するタスクとアルゴリズムが,lidarスキャンのシミュレーション,モーションデータの生成,光学フローのアノテーションなど,他の自動運転アプリケーションにどのように役立つかについても検討する。
ベンチマークとアルゴリズムのコードとプロトコルはhttps://github.com/TuSimple/LiDAR_SOT/で入手できます。
ビデオデモはhttps://www.youtube.com/watch?v=BpHixKs91i8 です。
関連論文リスト
- Dense Optical Tracking: Connecting the Dots [82.79642869586587]
DOTは、ビデオにおけるポイントトラッキングの問題を解決するための、新しくてシンプルで効率的な方法である。
OmniMotionのような高度な"ユニバーサルトラッカー"を上回り、CoTrackerのような最良のポイントトラッキングアルゴリズムと同等か、あるいはそれ以上の精度で、DOTが現在の光フロー技術よりもはるかに正確であることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:59:59Z) - BEVTrack: A Simple and Strong Baseline for 3D Single Object Tracking in
Bird's-Eye View [59.283604507093116]
3Dシングルオブジェクトトラッキング(SOT)はコンピュータビジョンの基本課題であり、自律運転のようなアプリケーションに不可欠なことを証明している。
我々は,Bird's-Eye View(BEV)におけるトラッキングを行う,シンプルだが効果的なベースラインであるBEVTrackを提案する。
3つの大規模データセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-09-05T12:42:26Z) - OmniTracker: Unifying Object Tracking by Tracking-with-Detection [119.51012668709502]
OmniTrackerは、完全に共有されたネットワークアーキテクチャ、モデルウェイト、推論パイプラインですべてのトラッキングタスクを解決するために提供されている。
LaSOT、TrackingNet、DAVIS16-17、MOT17、MOTS20、YTVIS19を含む7つの追跡データセットの実験は、OmniTrackerがタスク固有の追跡モデルと統合された追跡モデルの両方よりも、オンパーまたはそれ以上の結果を達成することを示した。
論文 参考訳(メタデータ) (2023-03-21T17:59:57Z) - Propagate And Calibrate: Real-time Passive Non-line-of-sight Tracking [84.38335117043907]
本研究では,リレー壁のみを観察することで,見えない部屋を歩いている人を追跡する純粋受動的手法を提案する。
本研究では,リレー壁の映像の非知覚的変化を発掘するため,時間的局所的な動きの伝達に欠かせない特徴として差分フレームを導入する。
提案手法を評価するため,最初の動的受動NLOS追跡データセットであるNLOS-Trackを構築し,公開する。
論文 参考訳(メタデータ) (2023-03-21T12:18:57Z) - A Bayesian Detect to Track System for Robust Visual Object Tracking and
Semi-Supervised Model Learning [1.7268829007643391]
ニューラルネットワークの出力によってパラメータ化されたベイズ追跡・検出フレームワークにおける副次的問題について述べる。
本稿では,粒子フィルタを用いた物体状態推定のための近似サンプリングアルゴリズムを提案する。
粒子フィルタ推論アルゴリズムを用いて,間欠的なラベル付きフレーム上でのトラッキングネットワークの学習に半教師付き学習アルゴリズムを用いる。
論文 参考訳(メタデータ) (2022-05-05T00:18:57Z) - Exploring Simple 3D Multi-Object Tracking for Autonomous Driving [10.921208239968827]
LiDARポイントクラウドにおける3Dマルチオブジェクトトラッキングは、自動運転車にとって重要な要素である。
既存の手法は、主にトラッキング・バイ・検出パイプラインに基づいており、検出アソシエーションのマッチングステップが必然的に必要である。
我々は,手作りの追跡パラダイムをシンプルにするために,原点雲からの共同検出と追跡のためのエンドツーエンドのトレーニング可能なモデルを提案する。
論文 参考訳(メタデータ) (2021-08-23T17:59:22Z) - Simultaneous Detection and Tracking with Motion Modelling for Multiple
Object Tracking [94.24393546459424]
本稿では,複数の物体の運動パラメータを推定し,共同検出と関連付けを行うディープ・モーション・モデリング・ネットワーク(DMM-Net)を提案する。
DMM-Netは、人気の高いUA-DETRACチャレンジで12.80 @120+ fpsのPR-MOTAスコアを達成した。
また,車両追跡のための大規模な公開データセットOmni-MOTを合成し,精密な接地トルースアノテーションを提供する。
論文 参考訳(メタデータ) (2020-08-20T08:05:33Z) - Robust Ego and Object 6-DoF Motion Estimation and Tracking [5.162070820801102]
本稿では,動的多体視覚計測における高精度な推定と一貫した追跡性を実現するためのロバストな解を提案する。
セマンティック・インスタンスレベルのセグメンテーションと正確な光フロー推定の最近の進歩を活用して、コンパクトで効果的なフレームワークを提案する。
追従点の品質と運動推定精度を向上させる新しい定式化SE(3)運動と光流が導入された。
論文 参考訳(メタデータ) (2020-07-28T05:12:56Z) - Novel Perception Algorithmic Framework For Object Identification and
Tracking In Autonomous Navigation [1.370633147306388]
本稿では,自律走行車における物体の認識・追跡機能を備えた新しい認識フレームワークを提案する。
このフレームワークは、Ego-vehicleのポーズ推定とKD-Treeベースのゴールセグメンテーションアルゴリズムを利用する。
方法論の有効性は、KITTIデータセット上で検証される。
論文 参考訳(メタデータ) (2020-06-08T18:21:40Z) - ArTIST: Autoregressive Trajectory Inpainting and Scoring for Tracking [80.02322563402758]
オンラインマルチオブジェクトトラッキング(MOT)フレームワークの中核的なコンポーネントの1つは、既存のトラックレットと新しい検出を関連付けることである。
そこで我々は,トラックレットが自然運動を表す可能性を直接測定することにより,トラックレットの提案を評価する確率論的自己回帰生成モデルを提案する。
論文 参考訳(メタデータ) (2020-04-16T06:43:11Z) - RetinaTrack: Online Single Stage Joint Detection and Tracking [22.351109024452462]
両タスクがミッションクリティカルな自律運転におけるトラッキング・バイ・検出パラダイムに注目した。
本稿では、一般的な単一ステージのRetinaNetアプローチを改良したRetinaTrackと呼ばれる、概念的にシンプルで効率的な検出と追跡のジョイントモデルを提案する。
論文 参考訳(メタデータ) (2020-03-30T23:46:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。