論文の概要: Frame Fusion with Vehicle Motion Prediction for 3D Object Detection
- arxiv url: http://arxiv.org/abs/2306.10699v1
- Date: Mon, 19 Jun 2023 04:57:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 19:05:28.050059
- Title: Frame Fusion with Vehicle Motion Prediction for 3D Object Detection
- Title(参考訳): 3次元物体検出のための車両運動予測とフレーム融合
- Authors: Xirui Li, Feng Wang, Naiyan Wang, Chao Ma
- Abstract要約: LiDARベースの3D検出では、履歴点雲は将来の予測に役立つ豊富な時間情報を含む。
本研究では,歴史フレームを融合させて3次元物体検出結果を改善する検出拡張手法であるFrameFusionを提案する。
- 参考スコア(独自算出の注目度): 18.354273907772278
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In LiDAR-based 3D detection, history point clouds contain rich temporal
information helpful for future prediction. In the same way, history detections
should contribute to future detections. In this paper, we propose a detection
enhancement method, namely FrameFusion, which improves 3D object detection
results by fusing history frames. In FrameFusion, we ''forward'' history frames
to the current frame and apply weighted Non-Maximum-Suppression on dense
bounding boxes to obtain a fused frame with merged boxes. To ''forward''
frames, we use vehicle motion models to estimate the future pose of the
bounding boxes. However, the commonly used constant velocity model fails
naturally on turning vehicles, so we explore two vehicle motion models to
address this issue. On Waymo Open Dataset, our FrameFusion method consistently
improves the performance of various 3D detectors by about $2$ vehicle level 2
APH with negligible latency and slightly enhances the performance of the
temporal fusion method MPPNet. We also conduct extensive experiments on motion
model selection.
- Abstract(参考訳): LiDARベースの3D検出では、履歴点雲は将来の予測に役立つ豊富な時間情報を含む。
同様に、履歴検出は将来の検出に寄与すべきである。
本稿では,歴史フレームを融合させて3次元物体検出結果を改善する検出拡張手法であるFrameFusionを提案する。
フレームフュージョンでは、履歴フレームを現在のフレームに'フォワード'し、密結合ボックスに重み付き非最大抑制を適用して融合ボックスを備えた融合フレームを得る。
フレームを'フォワード'するために、車体運動モデルを用いて境界ボックスの将来のポーズを推定する。
しかし、一般的に使用される定速度モデルは、旋回車では自然に失敗するため、この問題に対処するために2つの車両運動モデルを検討する。
Waymo Open Dataset上では, FrameFusion法は, 車両レベル2のAPHを無視できるレイテンシで, 様々な3D検出器の性能を継続的に向上し, 時間融合法MPPNetの性能をわずかに向上させる。
また,運動モデル選択に関する広範な実験を行った。
関連論文リスト
- CRT-Fusion: Camera, Radar, Temporal Fusion Using Motion Information for 3D Object Detection [9.509625131289429]
本稿では,レーダカメラ融合に時間情報を統合する新しいフレームワークであるCRT-Fusionを紹介する。
CRT-Fusionはレーダーカメラによる3Dオブジェクト検出のための最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-05T11:25:19Z) - PTT: Point-Trajectory Transformer for Efficient Temporal 3D Object Detection [66.94819989912823]
時間的3次元物体検出を効率的に行うために,長期記憶が可能な点トラジェクトリ変換器を提案する。
私たちは、メモリバンクのストレージ要件を最小限に抑えるために、現在のフレームオブジェクトのポイントクラウドとその履歴トラジェクトリを入力として使用します。
大規模データセットに対する広範な実験を行い、我々のアプローチが最先端の手法に対してうまく機能することを実証した。
論文 参考訳(メタデータ) (2023-12-13T18:59:13Z) - LEF: Late-to-Early Temporal Fusion for LiDAR 3D Object Detection [40.267769862404684]
時間的LiDAR点雲を用いた3次元物体検出のための特徴融合手法を提案する。
私たちの主な動機は、3Dオブジェクト検出器の初期段階にオブジェクト認識の潜伏埋め込みを融合させることです。
論文 参考訳(メタデータ) (2023-09-28T21:58:25Z) - DetZero: Rethinking Offboard 3D Object Detection with Long-term
Sequential Point Clouds [55.755450273390004]
既存のオフボード3D検出器は、無限の逐次点雲を利用するために常にモジュラーパイプライン設計に従っている。
その結果, 物体の運動状態は, 物体中心の精製段階において必然的な課題となること, 物体の運動状態は, 物体軌道を十分に生成できないこと, 物体中心の精製段階において必然的な課題となること, の2つの理由から, オフボード型3D検出器の完全なポテンシャルは明らかにされていないことがわかった。
これらの問題に対処するために,DetZero という,オフボード型3次元物体検出の新たなパラダイムを提案する。
論文 参考訳(メタデータ) (2023-06-09T16:42:00Z) - TrajectoryFormer: 3D Object Tracking Transformer with Predictive
Trajectory Hypotheses [51.60422927416087]
3Dマルチオブジェクトトラッキング(MOT)は、自律走行車やサービスロボットを含む多くのアプリケーションにとって不可欠である。
本稿では,新しいポイントクラウドベースの3DMOTフレームワークであるTrjectoryFormerを紹介する。
論文 参考訳(メタデータ) (2023-06-09T13:31:50Z) - GOOD: General Optimization-based Fusion for 3D Object Detection via
LiDAR-Camera Object Candidates [10.534984939225014]
3次元物体検出は、自律運転における知覚タスクの中核となる基礎となる。
Goodは汎用的な最適化ベースの融合フレームワークで、追加のモデルをトレーニングすることなく、満足度の高い検出を実現できる。
nuScenesとKITTIデータセットの両方の実験を行い、その結果、GOODはPointPillarsと比較してmAPスコアで9.1%上回っていることが示された。
論文 参考訳(メタデータ) (2023-03-17T07:05:04Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Exploring Optical-Flow-Guided Motion and Detection-Based Appearance for
Temporal Sentence Grounding [61.57847727651068]
テンポラルな文グラウンドディングは、与えられた文クエリに従って、意図しないビデオのターゲットセグメントをセマンティックにローカライズすることを目的としている。
これまでのほとんどの研究は、ビデオ全体のフレーム全体のフレームレベルの特徴を学習することに集中しており、それらをテキスト情報と直接一致させる。
我々は,光フロー誘導型モーションアウェア,検出ベース外観アウェア,3D認識オブジェクトレベル機能を備えた,動き誘導型3Dセマンティック推論ネットワーク(MA3SRN)を提案する。
論文 参考訳(メタデータ) (2022-03-06T13:57:09Z) - Temp-Frustum Net: 3D Object Detection with Temporal Fusion [0.0]
3Dオブジェクト検出は、自動運転システムの中核コンポーネントです。
フレームバイフレームの3dオブジェクト検出はノイズ、視野障害、スパーシティに苦しむ。
これらの問題を緩和するための新しい時間融合モジュールを提案する。
論文 参考訳(メタデータ) (2021-04-25T09:08:14Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。