論文の概要: MPPNet: Multi-Frame Feature Intertwining with Proxy Points for 3D
Temporal Object Detection
- arxiv url: http://arxiv.org/abs/2205.05979v1
- Date: Thu, 12 May 2022 09:38:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 13:41:15.488446
- Title: MPPNet: Multi-Frame Feature Intertwining with Proxy Points for 3D
Temporal Object Detection
- Title(参考訳): MPPNet:3次元時間物体検出のためのプロキシポイント付きマルチフレーム機能連携
- Authors: Xuesong Chen, Shaoshuai Shi, Benjin Zhu, Ka Chun Cheung, Hang Xu and
Hongsheng Li
- Abstract要約: 本稿では,ポイントクラウドシーケンスを用いた3次元時間的物体検出のための,MPPNetと呼ばれる柔軟で高性能な3D検出フレームワークを提案する。
マルチフレーム特徴符号化のためのプロキシポイントと,より優れた検出を実現するためのインタラクションを備えた,新しい3階層フレームワークを提案する。
提案手法は,ショート(4フレームなど)およびロング(16フレームなど)のクラウドシーケンスに適用した場合,最先端の手法よりも大きなマージンを持つ。
- 参考スコア(独自算出の注目度): 44.619039588252676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate and reliable 3D detection is vital for many applications including
autonomous driving vehicles and service robots. In this paper, we present a
flexible and high-performance 3D detection framework, named MPPNet, for 3D
temporal object detection with point cloud sequences. We propose a novel
three-hierarchy framework with proxy points for multi-frame feature encoding
and interactions to achieve better detection. The three hierarchies conduct
per-frame feature encoding, short-clip feature fusion, and whole-sequence
feature aggregation, respectively. To enable processing long-sequence point
clouds with reasonable computational resources, intra-group feature mixing and
inter-group feature attention are proposed to form the second and third feature
encoding hierarchies, which are recurrently applied for aggregating multi-frame
trajectory features. The proxy points not only act as consistent object
representations for each frame, but also serve as the courier to facilitate
feature interaction between frames. The experiments on largeWaymo Open dataset
show that our approach outperforms state-of-the-art methods with large margins
when applied to both short (e.g., 4-frame) and long (e.g., 16-frame) point
cloud sequences. Specifically, MPPNet achieves 74.21%, 74.62% and 73.31% for
vehicle, pedestrian and cyclist classes on the LEVEL 2 mAPH metric with
16-frame input.
- Abstract(参考訳): 正確な3D検出は、自動運転車やサービスロボットを含む多くのアプリケーションにとって不可欠である。
本稿では,点雲列を用いた3次元時空間物体検出のためのフレキシブルかつ高性能な3d検出フレームワークmppnetを提案する。
マルチフレーム特徴符号化のためのプロキシポイントと,より優れた検出を実現するためのインタラクションを備えた,新しい3階層フレームワークを提案する。
3つの階層はそれぞれフレーム毎の機能エンコーディング、ショートクリップ機能融合、全シーケンス機能アグリゲーションを行う。
適度な計算資源でロングシーケンス・ポイント・クラウドを処理できるようにするため、グループ内特徴混合とグループ間特徴注意が提案され、複数フレームの軌道特徴の集約に再帰的に適用される第2および第3の特徴符号化階層を形成する。
プロキシポイントは、各フレームの一貫性のあるオブジェクト表現として振る舞うだけでなく、フレーム間のフィーチャの相互作用を促進するクーリエとしても機能する。
largewaymo open datasetにおける実験は、短い(例えば4フレーム)と長い(例えば16フレーム)の雲列の両方に適用した場合、我々のアプローチが最先端の手法を大きなマージンで上回っていることを示している。
具体的には、MPPNetはLEVEL 2 mAPHメートル法で車、歩行者、自転車の計74.21%、74.62%、73.31%を達成した。
関連論文リスト
- PTT: Point-Trajectory Transformer for Efficient Temporal 3D Object Detection [66.94819989912823]
時間的3次元物体検出を効率的に行うために,長期記憶が可能な点トラジェクトリ変換器を提案する。
私たちは、メモリバンクのストレージ要件を最小限に抑えるために、現在のフレームオブジェクトのポイントクラウドとその履歴トラジェクトリを入力として使用します。
大規模データセットに対する広範な実験を行い、我々のアプローチが最先端の手法に対してうまく機能することを実証した。
論文 参考訳(メタデータ) (2023-12-13T18:59:13Z) - MSF: Motion-guided Sequential Fusion for Efficient 3D Object Detection
from Point Cloud Sequences [21.50329070835023]
ポイントクラウドシーケンスは、自律運転のようなアプリケーションにおける3Dオブジェクトを正確に検出するために一般的に使用される。
このフレームワークはシーケンスの各フレームから特徴を抽出し、それらを融合して現在のフレーム内のオブジェクトを検出する。
本研究では,現在のフレームにおけるオブジェクト検出に有用な逐次コンテキストをマイニングするために,オブジェクトの動きの連続性を利用した効率的な動作誘導逐次融合(MSF)法を提案する。
論文 参考訳(メタデータ) (2023-03-15T02:10:27Z) - Modeling Continuous Motion for 3D Point Cloud Object Tracking [54.48716096286417]
本稿では,各トラックレットを連続ストリームとみなす新しいアプローチを提案する。
各タイムスタンプでは、現在のフレームだけがネットワークに送られ、メモリバンクに格納された複数フレームの履歴機能と相互作用する。
頑健な追跡のためのマルチフレーム機能の利用性を高めるために,コントラッシブシーケンス強化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-14T02:58:27Z) - 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds [95.54285993019843]
本稿では,3次元点雲における複数物体の同時検出と追跡手法を提案する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
論文 参考訳(メタデータ) (2022-11-01T20:59:38Z) - TransPillars: Coarse-to-Fine Aggregation for Multi-Frame 3D Object
Detection [47.941714033657675]
ポイントクラウドを用いた3Dオブジェクト検出は、自律走行とロボット工学に広く応用されているため、注目を集めている。
連続点雲フレームの時間的特徴を生かしたトランスピラース(TransPillars)を設計する。
提案するTransPillarsは,既存のマルチフレーム検出手法と比較して最先端性能を実現する。
論文 参考訳(メタデータ) (2022-08-04T15:41:43Z) - Background-Aware 3D Point Cloud Segmentationwith Dynamic Point Feature
Aggregation [12.093182949686781]
DPFA-Net(Dynamic Point Feature Aggregation Network)と呼ばれる新しい3Dポイント・クラウド・ラーニング・ネットワークを提案する。
DPFA-Netにはセマンティックセグメンテーションと3Dポイントクラウドの分類のための2つのバリエーションがある。
S3DISデータセットのセマンティックセグメンテーションのための、最先端の全体的な精度スコアを達成する。
論文 参考訳(メタデータ) (2021-11-14T05:46:05Z) - Encoder-decoder with Multi-level Attention for 3D Human Shape and Pose
Estimation [61.98690211671168]
本稿では,マルチレベルアテンション・デコーダ・ネットワーク(MAED)を提案する。
3DPWのトレーニングセットにより、MAEDはPA-MPJPEの6.2、7.2、2.4mmの従来の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2021-09-06T09:06:17Z) - Relation3DMOT: Exploiting Deep Affinity for 3D Multi-Object Tracking
from View Aggregation [8.854112907350624]
3Dマルチオブジェクトトラッキングは、自律ナビゲーションにおいて重要な役割を果たす。
多くのアプローチでは、トラッキングのための2次元RGBシーケンス内のオブジェクトを検出するが、これは3次元空間内のオブジェクトをローカライズする際の信頼性の欠如である。
本稿では,隣接フレーム内の各オブジェクト間の相関をよりよく活用するために,RelationConvという新しい畳み込み演算を提案する。
論文 参考訳(メタデータ) (2020-11-25T16:14:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。