論文の概要: PTT: Point-Track-Transformer Module for 3D Single Object Tracking in
Point Clouds
- arxiv url: http://arxiv.org/abs/2108.06455v1
- Date: Sat, 14 Aug 2021 03:24:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 10:10:58.627639
- Title: PTT: Point-Track-Transformer Module for 3D Single Object Tracking in
Point Clouds
- Title(参考訳): PTT:ポイントクラウドにおける3次元物体追跡のためのポイントトラック変換モジュール
- Authors: Jiayao Shan, Sifan Zhou, Zheng Fang, Yubo Cui
- Abstract要約: ポイントクラウドベースの3Dオブジェクトトラッキングのためのポイントトラックトランスフォーマー(PTT)。
PTTモジュールには、機能埋め込み、位置エンコーディング、自己保持機能のための3つのブロックが含まれている。
われわれのPTT-Netは、最先端のマージン(10%)を突破した
- 参考スコア(独自算出の注目度): 7.482036504835097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D single object tracking is a key issue for robotics. In this paper, we
propose a transformer module called Point-Track-Transformer (PTT) for point
cloud-based 3D single object tracking. PTT module contains three blocks for
feature embedding, position encoding, and self-attention feature computation.
Feature embedding aims to place features closer in the embedding space if they
have similar semantic information. Position encoding is used to encode
coordinates of point clouds into high dimension distinguishable features.
Self-attention generates refined attention features by computing attention
weights. Besides, we embed the PTT module into the open-source state-of-the-art
method P2B to construct PTT-Net. Experiments on the KITTI dataset reveal that
our PTT-Net surpasses the state-of-the-art by a noticeable margin (~10\%).
Additionally, PTT-Net could achieve real-time performance (~40FPS) on NVIDIA
1080Ti GPU. Our code is open-sourced for the robotics community at
https://github.com/shanjiayao/PTT.
- Abstract(参考訳): 3Dオブジェクト追跡はロボティクスにとって重要な問題だ。
本稿では,ptt(point-track-transformer)と呼ばれる変圧器モジュールを提案する。
PTTモジュールには、機能埋め込み、位置符号化、自己注意機能計算のための3つのブロックが含まれている。
機能埋め込みは、類似のセマンティック情報がある場合、機能を埋め込み空間に近づけることを目的としている。
位置符号化は点雲の座標を高次元の識別可能な特徴に符号化するために用いられる。
自己注意は、注意重みの計算によって洗練された注意特徴を生成する。
さらに,PTTモジュールをオープンソースの最先端手法であるP2Bに組み込んでPTT-Netを構築する。
KITTIデータセットの実験では、当社のPTT-Netが最先端のマージン(約10.%)を突破していることが明らかになった。
さらに、ptt-netはnvidia 1080ti gpuでリアルタイムパフォーマンス(約40fps)を達成できる。
私たちのコードは、https://github.com/shanjiayao/PTT.comでロボットコミュニティのためにオープンソース化されています。
関連論文リスト
- Exploiting More Information in Sparse Point Cloud for 3D Single Object
Tracking [9.693724357115762]
3Dオブジェクトトラッキングは、3Dコンピュータビジョンにおける重要なタスクである。
点雲の空間性は、類似性を計算し、対象を見つけるのを難しくする。
本稿では3次元オブジェクト追跡のためのスパース・トゥ・デンス・トランスフォーマー・ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-02T13:38:30Z) - Real-time 3D Single Object Tracking with Transformer [5.000768859809606]
Point-Track-Transformer (PTT) は、ポイントクラウドベースの3Dオブジェクト追跡タスクのためのモジュールである。
PTTモジュールは、注意重みの計算により微調整された注意特徴を生成する。
PTT-Netでは、投票段階と提案段階にPTTを組み込む。
論文 参考訳(メタデータ) (2022-09-02T07:36:20Z) - Exploring Point-BEV Fusion for 3D Point Cloud Object Tracking with
Transformer [62.68401838976208]
3Dオブジェクトトラッキングは、オブジェクトテンプレートが与えられた連続したフレームにおけるオブジェクトの位置と向きを予測することを目的としている。
トランスの成功に触発されたPTTR(Point Tracking TRansformer)を提案する。
論文 参考訳(メタデータ) (2022-08-10T08:36:46Z) - Graph Neural Network and Spatiotemporal Transformer Attention for 3D
Video Object Detection from Point Clouds [94.21415132135951]
複数のフレームにおける時間情報を利用して3次元物体を検出することを提案する。
我々は,一般的なアンカーベースおよびアンカーフリー検出器に基づくアルゴリズムを実装した。
論文 参考訳(メタデータ) (2022-07-26T05:16:28Z) - PiFeNet: Pillar-Feature Network for Real-Time 3D Pedestrian Detection
from Point Cloud [64.12626752721766]
点雲からの歩行者検出に有効なリアルタイム3D検出器であるPiFeNetを提案する。
歩行者を検知する際の3次元物体検出フレームワークが直面する課題として, 柱の特徴の少ない点と, 点群における歩行者の占有面積の小さい点があげられる。
提案手法は,26fps/秒(FPS)で走行しながら,KITTI歩行者BEVと3Dリーダーボードで第1位にランクされ,Nuscenes検出ベンチマークの最先端性能を実現している。
論文 参考訳(メタデータ) (2021-12-31T13:41:37Z) - PTTR: Relational 3D Point Cloud Object Tracking with Transformer [37.06516957454285]
ポイントクラウドシーケンスでは、3Dオブジェクトトラッキングは、テンプレートポイントクラウドが与えられた現在の検索ポイントクラウド内のオブジェクトの位置と向きを予測することを目的としている。
本稿では,高品位な3次元追跡結果を粗い方法で効率的に予測し,変圧器操作の助けを借りて,ポイントトラッキングTRansformer (PTTR)を提案する。
論文 参考訳(メタデータ) (2021-12-06T08:28:05Z) - Trident Pyramid Networks: The importance of processing at the feature
pyramid level for better object detection [50.008529403150206]
我々はTrident Pyramid Network (TPN)と呼ばれる新しいコアアーキテクチャを提案する。
TPNはより深い設計を可能にし、コミュニケーションベースの処理と自己処理のバランスを改善する。
TPNコアをオブジェクト検出ベンチマークで使用した場合,BifPNベースラインを1.5 APで上回り,一貫した改善が見られた。
論文 参考訳(メタデータ) (2021-10-08T09:59:59Z) - 3D-SiamRPN: An End-to-End Learning Method for Real-Time 3D Single Object
Tracking Using Raw Point Cloud [9.513194898261787]
3D-SiamRPN Network と呼ばれる3次元追跡手法を提案する。
KITTIデータセットによる実験結果から,本手法は成功と精度の両面で競合する性能を示した。
論文 参考訳(メタデータ) (2021-08-12T09:52:28Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection [76.30585706811993]
我々はPointVoxel-RCNN(PV-RCNN)という新しい高性能な3Dオブジェクト検出フレームワークを提案する。
提案手法は3次元ボクセル畳み込みニューラルネットワーク(CNN)とPointNetベースの集合抽象化の両方を深く統合する。
3DボクセルCNNの効率的な学習と高品質な提案と、PointNetベースのネットワークのフレキシブル・レセプティブ・フィールドを利用する。
論文 参考訳(メタデータ) (2019-12-31T06:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。