論文の概要: 3D-SiamRPN: An End-to-End Learning Method for Real-Time 3D Single Object
Tracking Using Raw Point Cloud
- arxiv url: http://arxiv.org/abs/2108.05630v1
- Date: Thu, 12 Aug 2021 09:52:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-13 14:33:10.104419
- Title: 3D-SiamRPN: An End-to-End Learning Method for Real-Time 3D Single Object
Tracking Using Raw Point Cloud
- Title(参考訳): 3D-SiamRPN:生起点クラウドを用いたリアルタイム3次元物体追跡のためのエンドツーエンド学習手法
- Authors: Zheng Fang, Sifan Zhou, Yubo Cui, Sebastian Scherer
- Abstract要約: 3D-SiamRPN Network と呼ばれる3次元追跡手法を提案する。
KITTIデータセットによる実験結果から,本手法は成功と精度の両面で競合する性能を示した。
- 参考スコア(独自算出の注目度): 9.513194898261787
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D single object tracking is a key issue for autonomous following robot,
where the robot should robustly track and accurately localize the target for
efficient following. In this paper, we propose a 3D tracking method called
3D-SiamRPN Network to track a single target object by using raw 3D point cloud
data. The proposed network consists of two subnetworks. The first subnetwork is
feature embedding subnetwork which is used for point cloud feature extraction
and fusion. In this subnetwork, we first use PointNet++ to extract features of
point cloud from template and search branches. Then, to fuse the information of
features in the two branches and obtain their similarity, we propose two cross
correlation modules, named Pointcloud-wise and Point-wise respectively. The
second subnetwork is region proposal network(RPN), which is used to get the
final 3D bounding box of the target object based on the fusion feature from
cross correlation modules. In this subnetwork, we utilize the regression and
classification branches of a region proposal subnetwork to obtain proposals and
scores, thus get the final 3D bounding box of the target object. Experimental
results on KITTI dataset show that our method has a competitive performance in
both Success and Precision compared to the state-of-the-art methods, and could
run in real-time at 20.8 FPS. Additionally, experimental results on H3D dataset
demonstrate that our method also has good generalization ability and could
achieve good tracking performance in a new scene without re-training.
- Abstract(参考訳): 3Dオブジェクト追跡は、自律的な追従ロボットにとって重要な問題であり、ロボットは、効率的な追従のためにターゲットをしっかりと追跡し、正確に位置決めする必要がある。
本稿では,生の3dポイントクラウドデータを用いて,単一の対象オブジェクトを追跡する3d-siamrpnネットワークと呼ばれる3d追跡手法を提案する。
提案するネットワークは2つのサブネットワークで構成される。
最初のサブネットワークは、ポイントクラウドの特徴抽出と融合に使用される機能埋め込みサブネットワークである。
このサブネットワークでは、まずpointnet++を使用して、テンプレートと検索ブランチからpoint cloudの機能を抽出する。
次に,2つのブランチの特徴の情報を融合し,それらの類似性を得るため,pointcloud-wise と point-wise の2つの相互相関モジュールを提案する。
第2のサブネットワークは領域提案ネットワーク(RPN)であり、相互相関モジュールからの融合特性に基づいて、ターゲットオブジェクトの最終3次元境界ボックスを取得するために使用される。
このサブネットワークでは、領域提案サブネットワークの回帰と分類の分岐を利用して提案とスコアを取得し、ターゲットオブジェクトの最終的な3Dバウンディングボックスを取得する。
KITTIデータセットを用いた実験結果から,提案手法は最先端の手法と比較して精度と精度の両面で競争力があり,20.8FPSでリアルタイムに動作可能であることがわかった。
さらに,H3Dデータセットを用いた実験結果から,提案手法の一般化能力も良好であり,新たなシーンでのトラッキング性能が向上することを示した。
関連論文リスト
- PillarTrack: Redesigning Pillar-based Transformer Network for Single Object Tracking on Point Clouds [5.524413892353708]
LiDARベースの3Dオブジェクトトラッキング(3D SOT)は、ロボット工学と自動運転において重要な問題である。
柱型3Dオブジェクト追跡フレームワークであるPillarTrackを提案する。
PillarTrackは、KITTIとnuScenesデータセットで最先端のパフォーマンスを実現し、リアルタイムトラッキング速度を実現する。
論文 参考訳(メタデータ) (2024-04-11T06:06:56Z) - Dynamic Clustering Transformer Network for Point Cloud Segmentation [23.149220817575195]
動的クラスタリングトランスネットワーク(DCTNet)と呼ばれる新しい3Dポイントクラウド表現ネットワークを提案する。
エンコーダ-デコーダアーキテクチャがあり、ローカルとグローバルの両方の機能学習が可能である。
提案手法は,オブジェクトベースデータセット(ShapeNet),都市ナビゲーションデータセット(Toronto-3D),マルチスペクトルLiDARデータセットを用いて評価した。
論文 参考訳(メタデータ) (2023-05-30T01:11:05Z) - Unleash the Potential of Image Branch for Cross-modal 3D Object
Detection [67.94357336206136]
画像分岐のポテンシャルを2つの側面から解き放つことを目的として,新しい3Dオブジェクト検出器UPIDetを提案する。
まず、UPIDetは正規化された局所座標写像推定と呼ばれる新しい2次元補助タスクを導入する。
第2に,イメージブランチのトレーニング目標から逆転する勾配によって,ポイントクラウドバックボーンの表現能力を向上できることを見出した。
論文 参考訳(メタデータ) (2023-01-22T08:26:58Z) - 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds [95.54285993019843]
本稿では,3次元点雲における複数物体の同時検出と追跡手法を提案する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
論文 参考訳(メタデータ) (2022-11-01T20:59:38Z) - CAGroup3D: Class-Aware Grouping for 3D Object Detection on Point Clouds [55.44204039410225]
本稿では,CAGroup3Dという新しい2段階完全スパース3Dオブジェクト検出フレームワークを提案する。
提案手法は,まず,オブジェクト表面のボクセル上でのクラス認識型局所群戦略を活用することによって,高品質な3D提案を生成する。
不正なボクセルワイドセグメンテーションにより欠落したボクセルの特徴を回復するために,完全にスパースな畳み込み型RoIプールモジュールを構築した。
論文 参考訳(メタデータ) (2022-10-09T13:38:48Z) - RBGNet: Ray-based Grouping for 3D Object Detection [104.98776095895641]
本稿では,点雲からの正確な3次元物体検出のための投票型3次元検出器RBGNetフレームワークを提案する。
決定された光線群を用いて物体表面上の点方向の特徴を集約する。
ScanNet V2 と SUN RGB-D による最先端の3D 検出性能を実現する。
論文 参考訳(メタデータ) (2022-04-05T14:42:57Z) - Group-Free 3D Object Detection via Transformers [26.040378025818416]
3Dポイントクラウドから3Dオブジェクトを直接検出するためのシンプルで効果的な方法を紹介します。
本手法は, 点群内のすべての点から物体の特徴を, 変圧器 citevaswaniattention における注意機構の助けを借りて計算する。
ベルやホイッスルが少ないため,ScanNet V2とSUN RGB-Dの2つのベンチマークで最先端の3Dオブジェクト検出性能を実現する。
論文 参考訳(メタデータ) (2021-04-01T17:59:36Z) - Spherical Interpolated Convolutional Network with Distance-Feature
Density for 3D Semantic Segmentation of Point Clouds [24.85151376535356]
従来のグリッド形状の3次元畳み込み演算子を置き換えるために,球面補間畳み込み演算子を提案する。
提案手法は,ScanNetデータセットとParis-Lille-3Dデータセットで良好な性能を示す。
論文 参考訳(メタデータ) (2020-11-27T15:35:12Z) - Graph Neural Networks for 3D Multi-Object Tracking [28.121708602059048]
3次元多物体追跡(MOT)は自律システムにとって不可欠である。
最近の作業では、しばしばトラッキング・バイ・検出パイプラインを使用します。
本稿では,グラフニューラルネットワークを導入した新しい特徴相互作用機構を提案する。
論文 参考訳(メタデータ) (2020-08-20T17:55:41Z) - Cross-Modality 3D Object Detection [63.29935886648709]
本稿では,3次元物体検出のための新しい2段階多モード融合ネットワークを提案する。
アーキテクチャ全体が2段階の融合を促進する。
KITTIデータセットを用いた実験により,提案したマルチステージ融合により,ネットワークがより良い表現を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T11:01:20Z) - PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection [76.30585706811993]
我々はPointVoxel-RCNN(PV-RCNN)という新しい高性能な3Dオブジェクト検出フレームワークを提案する。
提案手法は3次元ボクセル畳み込みニューラルネットワーク(CNN)とPointNetベースの集合抽象化の両方を深く統合する。
3DボクセルCNNの効率的な学習と高品質な提案と、PointNetベースのネットワークのフレキシブル・レセプティブ・フィールドを利用する。
論文 参考訳(メタデータ) (2019-12-31T06:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。