論文の概要: 3D Object Detection and Tracking Based on Streaming Data
- arxiv url: http://arxiv.org/abs/2009.06169v1
- Date: Mon, 14 Sep 2020 03:15:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 12:25:48.228824
- Title: 3D Object Detection and Tracking Based on Streaming Data
- Title(参考訳): ストリーミングデータに基づく3次元物体検出と追跡
- Authors: Xusen Guo, Jiangfeng Gu, Silu Guo, Zixiao Xu, Chengzhang Yang,
Shanghua Liu, Long Cheng, Kai Huang
- Abstract要約: 我々は、オンに基づいて3次元物体検出のためのデュアルウェイネットワークを構築し、時間情報で導かれる動きに基づくアルゴリズムにより、非キーフレームに予測を伝達する。
我々のフレームワークはフレーム・バイ・フレーム・パラダイムよりも大幅に改善されているだけでなく、KITTI Object Tracking Benchmarkで競合する結果が得られることが証明されている。
- 参考スコア(独自算出の注目度): 9.085584050311178
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent approaches for 3D object detection have made tremendous progresses due
to the development of deep learning. However, previous researches are mostly
based on individual frames, leading to limited exploitation of information
between frames. In this paper, we attempt to leverage the temporal information
in streaming data and explore 3D streaming based object detection as well as
tracking. Toward this goal, we set up a dual-way network for 3D object
detection based on keyframes, and then propagate predictions to non-key frames
through a motion based interpolation algorithm guided by temporal information.
Our framework is not only shown to have significant improvements on object
detection compared with frame-by-frame paradigm, but also proven to produce
competitive results on KITTI Object Tracking Benchmark, with 76.68% in MOTA and
81.65% in MOTP respectively.
- Abstract(参考訳): 近年の3次元物体検出技術は深層学習の発展により大きな進歩を遂げている。
しかし、従来の研究は主に個々のフレームに基づいており、フレーム間の情報の活用は限られている。
本稿では,ストリーミングデータにおける時間情報を活用した3dストリーミングに基づく物体検出と追跡について検討する。
この目的に向けて,キーフレームに基づく3次元物体検出のための双方向ネットワークを構築し,時間情報に導かれた動きに基づく補間アルゴリズムを用いて非鍵フレームに予測を伝播する。
私たちのフレームワークは、フレーム毎のパラダイムに比べてオブジェクト検出に著しい改善があるだけでなく、kitti object tracking benchmarkで76.68%、motpで81.65%の競合結果が得られることが示されています。
関連論文リスト
- SeSame: Simple, Easy 3D Object Detection with Point-Wise Semantics [0.7373617024876725]
自律運転では、3Dオブジェクト検出は、経路計画や動き推定を含む下流タスクに対してより正確な情報を提供する。
本稿では,既存のLiDARのみに基づく3Dオブジェクト検出における意味情報の強化を目的としたSeSameを提案する。
KITTIオブジェクト検出ベンチマークにおいて,提案手法の有効性を示す実験を行った。
論文 参考訳(メタデータ) (2024-03-11T08:17:56Z) - STTracker: Spatio-Temporal Tracker for 3D Single Object Tracking [11.901758708579642]
ポイントクラウドによる3Dオブジェクトのトラッキングは、3Dコンピュータビジョンにおいて重要なタスクである。
以前の方法は、通常、最後の2つのフレームを入力し、前のフレームのテンプレートポイントクラウドと現在のフレームの検索エリアポイントクラウドを使用する。
論文 参考訳(メタデータ) (2023-06-30T07:25:11Z) - Predict to Detect: Prediction-guided 3D Object Detection using
Sequential Images [15.51093009875854]
本稿では,予測スキームを検出フレームワークに統合した新しい3Dオブジェクト検出モデルP2Dを提案する。
P2Dは、過去のフレームのみを用いて現在のフレーム内のオブジェクト情報を予測し、時間的動きの特徴を学習する。
次に,予測対象情報に基づいて,バードアイビュー(Bird's-Eye-View,BEV)特徴を注意深く活用する時間的特徴集約手法を提案する。
論文 参考訳(メタデータ) (2023-06-14T14:22:56Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - A Lightweight and Detector-free 3D Single Object Tracker on Point Clouds [50.54083964183614]
生のLiDARスキャンにおける物体の点雲は、通常スパースで不完全であるため、正確な目標固有検出を行うのは簡単ではない。
DMTは、複雑な3D検出器の使用を完全に除去する3Dトラッキングネットワークである。
論文 参考訳(メタデータ) (2022-03-08T17:49:07Z) - Exploring Optical-Flow-Guided Motion and Detection-Based Appearance for
Temporal Sentence Grounding [61.57847727651068]
テンポラルな文グラウンドディングは、与えられた文クエリに従って、意図しないビデオのターゲットセグメントをセマンティックにローカライズすることを目的としている。
これまでのほとんどの研究は、ビデオ全体のフレーム全体のフレームレベルの特徴を学習することに集中しており、それらをテキスト情報と直接一致させる。
我々は,光フロー誘導型モーションアウェア,検出ベース外観アウェア,3D認識オブジェクトレベル機能を備えた,動き誘導型3Dセマンティック推論ネットワーク(MA3SRN)を提案する。
論文 参考訳(メタデータ) (2022-03-06T13:57:09Z) - 3D-FCT: Simultaneous 3D Object Detection and Tracking Using Feature
Correlation [0.0]
3D-FCTは、時間情報を利用して3Dオブジェクトの検出と追跡の関連タスクを同時に実行するシームズネットワークアーキテクチャである。
提案手法は,最先端手法よりも5.57%mAPの改善が期待できるKITTI追跡データセットを用いて評価した。
論文 参考訳(メタデータ) (2021-10-06T06:36:29Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。