論文の概要: P2B: Point-to-Box Network for 3D Object Tracking in Point Clouds
- arxiv url: http://arxiv.org/abs/2005.13888v1
- Date: Thu, 28 May 2020 10:25:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-27 05:19:18.722042
- Title: P2B: Point-to-Box Network for 3D Object Tracking in Point Clouds
- Title(参考訳): p2b:ポイントクラウド内の3dオブジェクト追跡のためのポイントツーボックスネットワーク
- Authors: Haozhe Qi, Chen Feng, Zhiguo Cao, Feng Zhao, and Yang Xiao
- Abstract要約: P2Bと呼ばれる新しいポイント・ツー・ボックスネットワークはエンドツーエンドの学習方式で提案されている。
まず、ターゲット情報に埋め込まれた3次元検索領域において、潜在的なターゲットセンタをローカライズする。
そして、ポイント駆動の3Dターゲットの提案と検証を共同で行う。
- 参考スコア(独自算出の注目度): 27.194550997513513
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Towards 3D object tracking in point clouds, a novel point-to-box network
termed P2B is proposed in an end-to-end learning manner. Our main idea is to
first localize potential target centers in 3D search area embedded with target
information. Then point-driven 3D target proposal and verification are executed
jointly. In this way, the time-consuming 3D exhaustive search can be avoided.
Specifically, we first sample seeds from the point clouds in template and
search area respectively. Then, we execute permutation-invariant feature
augmentation to embed target clues from template into search area seeds and
represent them with target-specific features. Consequently, the augmented
search area seeds regress the potential target centers via Hough voting. The
centers are further strengthened with seed-wise targetness scores. Finally,
each center clusters its neighbors to leverage the ensemble power for joint 3D
target proposal and verification. We apply PointNet++ as our backbone and
experiments on KITTI tracking dataset demonstrate P2B's superiority (~10%'s
improvement over state-of-the-art). Note that P2B can run with 40FPS on a
single NVIDIA 1080Ti GPU. Our code and model are available at
https://github.com/HaozheQi/P2B.
- Abstract(参考訳): ポイントクラウドにおける3dオブジェクト追跡に向けて,p2bと呼ばれる新しいポイントツーボックスネットワークをエンドツーエンド学習方式で提案する。
私たちの主なアイデアは、ターゲット情報を埋め込んだ3d検索エリアのターゲットセンターを最初にローカライズすることです。
そして、ポイント駆動3d目標提案と検証を共同で実行する。
これにより、時間を要する3D排他探索を回避できる。
具体的には,まず,テンプレートと検索領域の点群から種子を採取した。
次に,テンプレートからターゲットのヒントを検索領域の種に埋め込み,ターゲット固有の特徴で表現するために,置換不変な特徴拡張を実行する。
その結果、強化された検索エリア種子はハフ投票によって潜在的ターゲットセンターを後退させる。
センターはさらに種子方向の目標スコアで強化される。
最後に、各センターは隣人をクラスタし、3dターゲットの提案と検証にアンサンブルパワーを利用する。
我々はPointNet++をバックボーンとして採用し、KITTI追跡データセットの実験を行い、P2Bの優位性(最先端よりも約10%向上)を実証した。
なお、p2bはnvidia 1080ti gpuで40fpsで動作する。
私たちのコードとモデルはhttps://github.com/haozheqi/p2bで利用可能です。
関連論文リスト
- PointSeg: A Training-Free Paradigm for 3D Scene Segmentation via
Foundation Models [53.45712917347696]
我々は、市販の視覚基盤モデルを利用して、3Dシーン認識タスクに対処する、新しいトレーニングフリーパラダイムであるPointSegを提案する。
PointSegは正確な3Dプロンプトを取得してフレーム間で対応するピクセルを調整することで、任意の3Dシーンを分割することができる。
このアプローチは,ScanNet,ScanNet++,KITTI-360データセット上の13.4$%,11.3$%,12$%のmAPで最先端のスペシャリストモデルを大幅に上回る。
論文 参考訳(メタデータ) (2024-03-11T03:28:20Z) - Clustering based Point Cloud Representation Learning for 3D Analysis [80.88995099442374]
本稿では,ポイントクラウド分析のためのクラスタリングに基づく教師付き学習手法を提案する。
現在のデファクトでシーンワイドなトレーニングパラダイムとは異なり、我々のアルゴリズムは点埋め込み空間上でクラス内のクラスタリングを行う。
我々のアルゴリズムは、有名なポイントクラウドセグメンテーションデータセットの顕著な改善を示している。
論文 参考訳(メタデータ) (2023-07-27T03:42:12Z) - 3D-SPS: Single-Stage 3D Visual Grounding via Referred Point Progressive
Selection [35.5386998382886]
3Dビジュアルグラウンドは、自由形式の言語記述に従って、3Dポイントクラウドシーンで参照対象物を見つけることを目的としている。
従来の手法は主に2段階のパラダイム、すなわち言語非関連検出とクロスモーダルマッチングに従う。
本稿では,言語指導を用いてキーポイントを段階的に選択し,ターゲットを直接特定する3Dシングルステージ参照ポイントプログレッシブ選択法を提案する。
論文 参考訳(メタデータ) (2022-04-13T09:46:27Z) - RBGNet: Ray-based Grouping for 3D Object Detection [104.98776095895641]
本稿では,点雲からの正確な3次元物体検出のための投票型3次元検出器RBGNetフレームワークを提案する。
決定された光線群を用いて物体表面上の点方向の特徴を集約する。
ScanNet V2 と SUN RGB-D による最先端の3D 検出性能を実現する。
論文 参考訳(メタデータ) (2022-04-05T14:42:57Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - 3D-SiamRPN: An End-to-End Learning Method for Real-Time 3D Single Object
Tracking Using Raw Point Cloud [9.513194898261787]
3D-SiamRPN Network と呼ばれる3次元追跡手法を提案する。
KITTIデータセットによる実験結果から,本手法は成功と精度の両面で競合する性能を示した。
論文 参考訳(メタデータ) (2021-08-12T09:52:28Z) - Group-Free 3D Object Detection via Transformers [26.040378025818416]
3Dポイントクラウドから3Dオブジェクトを直接検出するためのシンプルで効果的な方法を紹介します。
本手法は, 点群内のすべての点から物体の特徴を, 変圧器 citevaswaniattention における注意機構の助けを借りて計算する。
ベルやホイッスルが少ないため,ScanNet V2とSUN RGB-Dの2つのベンチマークで最先端の3Dオブジェクト検出性能を実現する。
論文 参考訳(メタデータ) (2021-04-01T17:59:36Z) - F-Siamese Tracker: A Frustum-based Double Siamese Network for 3D Single
Object Tracking [12.644452175343059]
3Dオブジェクト追跡の主な課題は、適切な3D候補を生成するための検索スペースを減らす方法である。
3Dプロポーザルに頼る代わりに、2D領域プロポーザルを生成し、それを3Dビューイングフラストラムに出力する。
我々は3次元フラストラム上でオンラインの精度検証を行い、洗練された点雲探索空間を生成する。
論文 参考訳(メタデータ) (2020-10-22T08:01:17Z) - Cross-Modality 3D Object Detection [63.29935886648709]
本稿では,3次元物体検出のための新しい2段階多モード融合ネットワークを提案する。
アーキテクチャ全体が2段階の融合を促進する。
KITTIデータセットを用いた実験により,提案したマルチステージ融合により,ネットワークがより良い表現を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T11:01:20Z) - 3D-MPA: Multi Proposal Aggregation for 3D Semantic Instance Segmentation [26.169985423367393]
3D-MPAは、3Dポイントクラウド上のインスタンスセグメンテーションの方法である。
同じオブジェクトセンターに投票したグループ化されたポイント機能から提案機能を学びます。
グラフ畳み込みネットワークは、プロトゾス間関係を導入する。
論文 参考訳(メタデータ) (2020-03-30T23:28:50Z) - PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection [76.30585706811993]
我々はPointVoxel-RCNN(PV-RCNN)という新しい高性能な3Dオブジェクト検出フレームワークを提案する。
提案手法は3次元ボクセル畳み込みニューラルネットワーク(CNN)とPointNetベースの集合抽象化の両方を深く統合する。
3DボクセルCNNの効率的な学習と高品質な提案と、PointNetベースのネットワークのフレキシブル・レセプティブ・フィールドを利用する。
論文 参考訳(メタデータ) (2019-12-31T06:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。