論文の概要: PTT: Point-Track-Transformer Module for 3D Single Object Tracking in
Point Clouds
- arxiv url: http://arxiv.org/abs/2108.06455v1
- Date: Sat, 14 Aug 2021 03:24:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 10:10:58.627639
- Title: PTT: Point-Track-Transformer Module for 3D Single Object Tracking in
Point Clouds
- Title(参考訳): PTT:ポイントクラウドにおける3次元物体追跡のためのポイントトラック変換モジュール
- Authors: Jiayao Shan, Sifan Zhou, Zheng Fang, Yubo Cui
- Abstract要約: ポイントクラウドベースの3Dオブジェクトトラッキングのためのポイントトラックトランスフォーマー(PTT)。
PTTモジュールには、機能埋め込み、位置エンコーディング、自己保持機能のための3つのブロックが含まれている。
われわれのPTT-Netは、最先端のマージン(10%)を突破した
- 参考スコア(独自算出の注目度): 7.482036504835097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D single object tracking is a key issue for robotics. In this paper, we
propose a transformer module called Point-Track-Transformer (PTT) for point
cloud-based 3D single object tracking. PTT module contains three blocks for
feature embedding, position encoding, and self-attention feature computation.
Feature embedding aims to place features closer in the embedding space if they
have similar semantic information. Position encoding is used to encode
coordinates of point clouds into high dimension distinguishable features.
Self-attention generates refined attention features by computing attention
weights. Besides, we embed the PTT module into the open-source state-of-the-art
method P2B to construct PTT-Net. Experiments on the KITTI dataset reveal that
our PTT-Net surpasses the state-of-the-art by a noticeable margin (~10\%).
Additionally, PTT-Net could achieve real-time performance (~40FPS) on NVIDIA
1080Ti GPU. Our code is open-sourced for the robotics community at
https://github.com/shanjiayao/PTT.
- Abstract(参考訳): 3Dオブジェクト追跡はロボティクスにとって重要な問題だ。
本稿では,ptt(point-track-transformer)と呼ばれる変圧器モジュールを提案する。
PTTモジュールには、機能埋め込み、位置符号化、自己注意機能計算のための3つのブロックが含まれている。
機能埋め込みは、類似のセマンティック情報がある場合、機能を埋め込み空間に近づけることを目的としている。
位置符号化は点雲の座標を高次元の識別可能な特徴に符号化するために用いられる。
自己注意は、注意重みの計算によって洗練された注意特徴を生成する。
さらに,PTTモジュールをオープンソースの最先端手法であるP2Bに組み込んでPTT-Netを構築する。
KITTIデータセットの実験では、当社のPTT-Netが最先端のマージン(約10.%)を突破していることが明らかになった。
さらに、ptt-netはnvidia 1080ti gpuでリアルタイムパフォーマンス(約40fps)を達成できる。
私たちのコードは、https://github.com/shanjiayao/PTT.comでロボットコミュニティのためにオープンソース化されています。
関連論文リスト
- PillarTrack: Redesigning Pillar-based Transformer Network for Single Object Tracking on Point Clouds [5.524413892353708]
LiDARベースの3Dオブジェクトトラッキング(3D SOT)は、ロボット工学と自動運転において重要な問題である。
柱型3Dオブジェクト追跡フレームワークであるPillarTrackを提案する。
PillarTrackは、KITTIとnuScenesデータセットで最先端のパフォーマンスを実現し、リアルタイムトラッキング速度を実現する。
論文 参考訳(メタデータ) (2024-04-11T06:06:56Z) - EasyTrack: Efficient and Compact One-stream 3D Point Clouds Tracker [35.74677036815288]
そこで本稿では,TextbfEasyTrackと呼ばれる,簡潔でコンパクトな1ストリームトランスフォーマ3D SOTパラダイムを提案する。
3Dポイントクラウド追跡機能付き事前学習モジュールを開発し、3Dポイントクラウド追跡表現の学習にマスク付きオートエンコーディングを利用する。
密集した鳥眼ビュー(BEV)特徴空間における目標位置ネットワークを構築し、目標分類と回帰を行う。
論文 参考訳(メタデータ) (2024-04-09T02:47:52Z) - Real-time 3D Single Object Tracking with Transformer [5.000768859809606]
Point-Track-Transformer (PTT) は、ポイントクラウドベースの3Dオブジェクト追跡タスクのためのモジュールである。
PTTモジュールは、注意重みの計算により微調整された注意特徴を生成する。
PTT-Netでは、投票段階と提案段階にPTTを組み込む。
論文 参考訳(メタデータ) (2022-09-02T07:36:20Z) - Exploring Point-BEV Fusion for 3D Point Cloud Object Tracking with
Transformer [62.68401838976208]
3Dオブジェクトトラッキングは、オブジェクトテンプレートが与えられた連続したフレームにおけるオブジェクトの位置と向きを予測することを目的としている。
トランスの成功に触発されたPTTR(Point Tracking TRansformer)を提案する。
論文 参考訳(メタデータ) (2022-08-10T08:36:46Z) - Graph Neural Network and Spatiotemporal Transformer Attention for 3D
Video Object Detection from Point Clouds [94.21415132135951]
複数のフレームにおける時間情報を利用して3次元物体を検出することを提案する。
我々は,一般的なアンカーベースおよびアンカーフリー検出器に基づくアルゴリズムを実装した。
論文 参考訳(メタデータ) (2022-07-26T05:16:28Z) - PiFeNet: Pillar-Feature Network for Real-Time 3D Pedestrian Detection
from Point Cloud [64.12626752721766]
点雲からの歩行者検出に有効なリアルタイム3D検出器であるPiFeNetを提案する。
歩行者を検知する際の3次元物体検出フレームワークが直面する課題として, 柱の特徴の少ない点と, 点群における歩行者の占有面積の小さい点があげられる。
提案手法は,26fps/秒(FPS)で走行しながら,KITTI歩行者BEVと3Dリーダーボードで第1位にランクされ,Nuscenes検出ベンチマークの最先端性能を実現している。
論文 参考訳(メタデータ) (2021-12-31T13:41:37Z) - PTTR: Relational 3D Point Cloud Object Tracking with Transformer [37.06516957454285]
ポイントクラウドシーケンスでは、3Dオブジェクトトラッキングは、テンプレートポイントクラウドが与えられた現在の検索ポイントクラウド内のオブジェクトの位置と向きを予測することを目的としている。
本稿では,高品位な3次元追跡結果を粗い方法で効率的に予測し,変圧器操作の助けを借りて,ポイントトラッキングTRansformer (PTTR)を提案する。
論文 参考訳(メタデータ) (2021-12-06T08:28:05Z) - Trident Pyramid Networks: The importance of processing at the feature
pyramid level for better object detection [50.008529403150206]
我々はTrident Pyramid Network (TPN)と呼ばれる新しいコアアーキテクチャを提案する。
TPNはより深い設計を可能にし、コミュニケーションベースの処理と自己処理のバランスを改善する。
TPNコアをオブジェクト検出ベンチマークで使用した場合,BifPNベースラインを1.5 APで上回り,一貫した改善が見られた。
論文 参考訳(メタデータ) (2021-10-08T09:59:59Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection [76.30585706811993]
我々はPointVoxel-RCNN(PV-RCNN)という新しい高性能な3Dオブジェクト検出フレームワークを提案する。
提案手法は3次元ボクセル畳み込みニューラルネットワーク(CNN)とPointNetベースの集合抽象化の両方を深く統合する。
3DボクセルCNNの効率的な学習と高品質な提案と、PointNetベースのネットワークのフレキシブル・レセプティブ・フィールドを利用する。
論文 参考訳(メタデータ) (2019-12-31T06:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。