論文の概要: FlowTrack: Point-level Flow Network for 3D Single Object Tracking
- arxiv url: http://arxiv.org/abs/2407.01959v1
- Date: Tue, 2 Jul 2024 05:31:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 16:43:59.592115
- Title: FlowTrack: Point-level Flow Network for 3D Single Object Tracking
- Title(参考訳): FlowTrack:3次元単一物体追跡のためのポイントレベルフローネットワーク
- Authors: Shuo Li, Yubo Cui, Zhiheng Li, Zheng Fang,
- Abstract要約: 3Dシングルオブジェクトトラッキング(SOT)は、モバイルロボティクスと自動運転の分野において重要なタスクである。
従来の動きに基づくアプローチは、2つの連続するフレーム間の目標の相対的な移動を推定することで目標追跡を実現する。
本研究では,FlowTrackと呼ばれる3次元SOTタスクのための多フレーム情報を用いた点レベルフロー手法を提案する。
- 参考スコア(独自算出の注目度): 24.93453336062018
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D single object tracking (SOT) is a crucial task in fields of mobile robotics and autonomous driving. Traditional motion-based approaches achieve target tracking by estimating the relative movement of target between two consecutive frames. However, they usually overlook local motion information of the target and fail to exploit historical frame information effectively. To overcome the above limitations, we propose a point-level flow method with multi-frame information for 3D SOT task, called FlowTrack. Specifically, by estimating the flow for each point in the target, our method could capture the local motion details of target, thereby improving the tracking performance. At the same time, to handle scenes with sparse points, we present a learnable target feature as the bridge to efficiently integrate target information from past frames. Moreover, we design a novel Instance Flow Head to transform dense point-level flow into instance-level motion, effectively aggregating local motion information to obtain global target motion. Finally, our method achieves competitive performance with improvements of 5.9% on the KITTI dataset and 2.9% on NuScenes. The code will be made publicly available soon.
- Abstract(参考訳): 3Dシングルオブジェクトトラッキング(SOT)は、モバイルロボティクスと自動運転の分野において重要なタスクである。
従来の動きに基づくアプローチは、2つの連続するフレーム間の目標の相対的な移動を推定することで目標追跡を実現する。
しかし、それらは通常、ターゲットの局所的な動き情報を見落とし、歴史的フレーム情報を効果的に活用することができない。
上記の制限を克服するために,FlowTrackと呼ばれる3次元SOTタスクのための多フレーム情報を用いた点レベルフロー手法を提案する。
具体的には、ターゲットの各点のフローを推定することにより、ターゲットの局所的な動きの詳細を捉えることができ、トラッキング性能を向上させることができる。
同時に,スパークポイントでシーンを処理するために,過去のフレームからターゲット情報を効率的に統合するための学習可能なターゲット特徴をブリッジとして提示する。
さらに,高密度点レベルの流れをインスタンスレベルの動きに変換するための新しいインスタンスフローヘッドを設計し,局所的な動き情報を効果的に集約してグローバルな目標運動を得る。
最後に,KITTIデータセットが5.9%,NuScenesが2.9%向上し,競合性能が向上した。
コードはまもなく公開される予定だ。
関連論文リスト
- SeFlow: A Self-Supervised Scene Flow Method in Autonomous Driving [18.88208422580103]
連続したLiDARスキャンで各点における3次元運動を予測する。
現在の最先端の手法は、シーンフローネットワークをトレーニングするために注釈付きデータを必要とする。
本研究では,効率的な動的分類を学習に基づくシーンフローパイプラインに統合するSeFlowを提案する。
論文 参考訳(メタデータ) (2024-07-01T18:22:54Z) - SeMoLi: What Moves Together Belongs Together [51.72754014130369]
動作手がかりに基づく半教師付き物体検出に挑戦する。
近年,移動物体の擬似ラベルインスタンスに対して,動きに基づくクラスタリング手法が適用可能であることが示唆された。
我々は、このアプローチを再考し、オブジェクト検出とモーションインスパイアされた擬似ラベルの両方が、データ駆動方式で取り組めることを示唆する。
論文 参考訳(メタデータ) (2024-02-29T18:54:53Z) - STTracker: Spatio-Temporal Tracker for 3D Single Object Tracking [11.901758708579642]
ポイントクラウドによる3Dオブジェクトのトラッキングは、3Dコンピュータビジョンにおいて重要なタスクである。
以前の方法は、通常、最後の2つのフレームを入力し、前のフレームのテンプレートポイントクラウドと現在のフレームの検索エリアポイントクラウドを使用する。
論文 参考訳(メタデータ) (2023-06-30T07:25:11Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - Target-Aware Tracking with Long-term Context Attention [8.20858704675519]
長期的コンテキストアテンション(LCA)モジュールは、長期的フレームからターゲットとそのコンテキストについて広範な情報融合を行うことができる。
LCAは、類似したオブジェクトや複雑な背景の干渉を排除するために、以前のフレームからターゲット状態を使用する。
トラッカーは, 71.1%のAUC, 89.3%のNP, 73.0%のAOをLaSOT, TrackingNet, GOT-10kで実現した。
論文 参考訳(メタデータ) (2023-02-27T14:40:58Z) - CXTrack: Improving 3D Point Cloud Tracking with Contextual Information [59.55870742072618]
3Dオブジェクトトラッキングは、自律運転など、多くのアプリケーションにおいて重要な役割を果たす。
CXTrackは3次元オブジェクト追跡のためのトランスフォーマーベースのネットワークである。
CXTrackは29FPSで動作しながら最先端のトラッキング性能を実現する。
論文 参考訳(メタデータ) (2022-11-12T11:29:01Z) - Learning Dynamic Compact Memory Embedding for Deformable Visual Object
Tracking [82.34356879078955]
本稿では,セグメント化に基づく変形可能な視覚追跡手法の識別を強化するために,コンパクトなメモリ埋め込みを提案する。
DAVIS 2017ベンチマークでは,D3SやSiamMaskなどのセグメンテーションベースのトラッカーよりも優れている。
論文 参考訳(メタデータ) (2021-11-23T03:07:12Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Tracking from Patterns: Learning Corresponding Patterns in Point Clouds
for 3D Object Tracking [34.40019455462043]
本稿では,時間点雲データから3次元オブジェクト対応を学習し,対応パターンから動き情報を推測する。
提案手法は,KITTIと大規模Nuscenesデータセットの双方において,既存の3次元追跡手法を超えている。
論文 参考訳(メタデータ) (2020-10-20T06:07:20Z) - Know Your Surroundings: Exploiting Scene Information for Object Tracking [181.1750279330811]
現在の最先端トラッカーは、各フレーム内のオブジェクトをローカライズするためにターゲットの外観モデルのみに依存している。
本研究では,トラッキングにシーン情報を利用する新しいトラッキングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-24T17:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。