論文の概要: D-Align: Dual Query Co-attention Network for 3D Object Detection Based
on Multi-frame Point Cloud Sequence
- arxiv url: http://arxiv.org/abs/2210.00087v1
- Date: Fri, 30 Sep 2022 20:41:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 15:16:11.569985
- Title: D-Align: Dual Query Co-attention Network for 3D Object Detection Based
on Multi-frame Point Cloud Sequence
- Title(参考訳): D-Align:マルチフレームポイントクラウドシーケンスに基づく3次元オブジェクト検出のためのデュアルクエリコアテンションネットワーク
- Authors: Junhyung Lee, Junho Koh, Youngwoo Lee, Jun Won Choi
- Abstract要約: 従来の3Dオブジェクト検出器は一定期間に取得した一連の点を用いて物体を検出する。
近年の研究では、点雲列を利用して物体検出の性能をさらに向上できることが示されている。
D-Alignは,一連の点集合から得られる特徴を調整・集約することで,鳥眼視(BEV)の特徴を効果的に生み出すことができる。
- 参考スコア(独自算出の注目度): 8.21339007493213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LiDAR sensors are widely used for 3D object detection in various mobile
robotics applications. LiDAR sensors continuously generate point cloud data in
real-time. Conventional 3D object detectors detect objects using a set of
points acquired over a fixed duration. However, recent studies have shown that
the performance of object detection can be further enhanced by utilizing
spatio-temporal information obtained from point cloud sequences. In this paper,
we propose a new 3D object detector, named D-Align, which can effectively
produce strong bird's-eye-view (BEV) features by aligning and aggregating the
features obtained from a sequence of point sets. The proposed method includes a
novel dual-query co-attention network that uses two types of queries, including
target query set (T-QS) and support query set (S-QS), to update the features of
target and support frames, respectively. D-Align aligns S-QS to T-QS based on
the temporal context features extracted from the adjacent feature maps and then
aggregates S-QS with T-QS using a gated attention mechanism. The dual queries
are updated through multiple attention layers to progressively enhance the
target frame features used to produce the detection results. Our experiments on
the nuScenes dataset show that the proposed D-Align method greatly improved the
performance of a single frame-based baseline method and significantly
outperformed the latest 3D object detectors.
- Abstract(参考訳): LiDARセンサーは、様々な移動ロボットアプリケーションにおける3Dオブジェクト検出に広く利用されている。
LiDARセンサーは、リアルタイムで点雲データを連続的に生成する。
従来の3Dオブジェクト検出器は一定期間に取得した一連の点を用いて物体を検出する。
しかし,近年の研究では,点雲列から得られた時空間情報を利用することで,物体検出の性能をさらに向上できることが示された。
本稿では,複数の点集合から得られた特徴を整理・集約することにより,強力な鳥眼視(bev)特徴を効果的に生成できるd-alignと呼ばれる新しい3次元物体検出器を提案する。
提案手法は、ターゲットクエリセット(T-QS)とサポートクエリセット(S-QS)の2種類のクエリを使用して、ターゲットとサポートフレームの特徴をそれぞれ更新する新しいデュアルクエリコアテンションネットワークを含む。
D−Alignは、隣接する特徴マップから抽出された時間的文脈特徴に基づいてS−QSをT−QSにアライメントし、ゲートアテンション機構を用いてS−QSをT−QSに集約する。
二重クエリは、複数の注意層を通じて更新され、検出結果を生成するために使用されるターゲットフレーム機能を徐々に強化する。
nuScenesデータセットを用いた実験により,提案手法は単一フレームベースベースライン法の性能を大幅に向上し,最新の3Dオブジェクト検出器よりも優れていた。
関連論文リスト
- SEED: A Simple and Effective 3D DETR in Point Clouds [72.74016394325675]
ポイントクラウドの分散度が高く,不均一な分布のため,主な課題は困難である,と我々は主張する。
点雲から3次元物体を検出するための簡便で効果的な3次元DETR法(SEED)を提案する。
論文 参考訳(メタデータ) (2024-07-15T14:21:07Z) - Boosting 3D Object Detection with Semantic-Aware Multi-Branch Framework [44.44329455757931]
自律走行では、LiDARセンサーは3Dポイントの雲の取得に不可欠であり、信頼できる幾何学的情報を提供する。
従来の前処理のサンプリング手法は意味的特徴を無視することが多く、詳細な損失や接地点干渉を引き起こす。
本稿では,Semantic-aware Multi-branch Smpling (SMS)モジュールとマルチビュー制約を用いたマルチブランチ2次元オブジェクト検出フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-08T09:25:45Z) - PTT: Point-Trajectory Transformer for Efficient Temporal 3D Object Detection [66.94819989912823]
時間的3次元物体検出を効率的に行うために,長期記憶が可能な点トラジェクトリ変換器を提案する。
私たちは、メモリバンクのストレージ要件を最小限に抑えるために、現在のフレームオブジェクトのポイントクラウドとその履歴トラジェクトリを入力として使用します。
大規模データセットに対する広範な実験を行い、我々のアプローチが最先端の手法に対してうまく機能することを実証した。
論文 参考訳(メタデータ) (2023-12-13T18:59:13Z) - MGTANet: Encoding Sequential LiDAR Points Using Long Short-Term
Motion-Guided Temporal Attention for 3D Object Detection [8.305942415868042]
ほとんどのLiDARセンサーは、リアルタイムで一連の点雲を生成する。
近年の研究では、一連の点集合に存在するコンテキストを活用することで、大幅な性能向上が達成されている。
複数の連続走査によって取得された点雲列を符号化する新しい3Dオブジェクト検出アーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-12-01T11:24:47Z) - 3D Cascade RCNN: High Quality Object Detection in Point Clouds [122.42455210196262]
本稿では3次元カスケードRCNNを提案する。これはカスケードパラダイムにおいて、酸化点雲に基づいて複数の検出器を割り当てる。
提案する3次元カスケードRCNNは,最先端の3次元物体検出技術と比較した場合の優位性を検証した。
論文 参考訳(メタデータ) (2022-11-15T15:58:36Z) - 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds [95.54285993019843]
本稿では,3次元点雲における複数物体の同時検出と追跡手法を提案する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
論文 参考訳(メタデータ) (2022-11-01T20:59:38Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Joint 3D Object Detection and Tracking Using Spatio-Temporal
Representation of Camera Image and LiDAR Point Clouds [12.334725127696395]
カメラとLiDARセンサを用いた3次元物体検出・追跡のための新しい関節物体検出・追跡(DT)フレームワークを提案する。
提案手法は3D DetecJoと呼ばれ、検出器とトラッカーが協調してカメラとLiDARデータの時間表現を生成する。
論文 参考訳(メタデータ) (2021-12-14T02:38:45Z) - LiDAR-based Online 3D Video Object Detection with Graph-based Message
Passing and Spatiotemporal Transformer Attention [100.52873557168637]
3Dオブジェクト検出器は、通常は単一フレームの検出にフォーカスするが、連続する点のクラウドフレームでは情報を無視する。
本稿では,ポイントシーケンスで動作するエンドツーエンドのオンライン3Dビデオオブジェクト検出器を提案する。
論文 参考訳(メタデータ) (2020-04-03T06:06:52Z) - Boundary-Aware Dense Feature Indicator for Single-Stage 3D Object
Detection from Point Clouds [32.916690488130506]
本稿では,3次元検出器が境界を意識して点雲の最も密集した領域に焦点を合わせるのを支援する普遍モジュールを提案する。
KITTIデータセットの実験により、DENFIはベースライン単段検出器の性能を著しく改善することが示された。
論文 参考訳(メタデータ) (2020-04-01T01:21:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。