論文の概要: PTTR: Relational 3D Point Cloud Object Tracking with Transformer
- arxiv url: http://arxiv.org/abs/2112.02857v1
- Date: Mon, 6 Dec 2021 08:28:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 16:27:48.633153
- Title: PTTR: Relational 3D Point Cloud Object Tracking with Transformer
- Title(参考訳): PTTR:Transformerを用いたリレーショナル3Dポイントクラウドオブジェクト追跡
- Authors: Changqing Zhou, Zhipeng Luo, Yueru Luo, Tianrui Liu, Liang Pan,
Zhongang Cai, Haiyu Zhao, Shijian Lu
- Abstract要約: ポイントクラウドシーケンスでは、3Dオブジェクトトラッキングは、テンプレートポイントクラウドが与えられた現在の検索ポイントクラウド内のオブジェクトの位置と向きを予測することを目的としている。
本稿では,高品位な3次元追跡結果を粗い方法で効率的に予測し,変圧器操作の助けを借りて,ポイントトラッキングTRansformer (PTTR)を提案する。
- 参考スコア(独自算出の注目度): 37.06516957454285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In a point cloud sequence, 3D object tracking aims to predict the location
and orientation of an object in the current search point cloud given a template
point cloud. Motivated by the success of transformers, we propose Point
Tracking TRansformer (PTTR), which efficiently predicts high-quality 3D
tracking results in a coarse-to-fine manner with the help of transformer
operations. PTTR consists of three novel designs. 1) Instead of random
sampling, we design Relation-Aware Sampling to preserve relevant points to
given templates during subsampling. 2) Furthermore, we propose a Point Relation
Transformer (PRT) consisting of a self-attention and a cross-attention module.
The global self-attention operation captures long-range dependencies to enhance
encoded point features for the search area and the template, respectively.
Subsequently, we generate the coarse tracking results by matching the two sets
of point features via cross-attention. 3) Based on the coarse tracking results,
we employ a novel Prediction Refinement Module to obtain the final refined
prediction. In addition, we create a large-scale point cloud single object
tracking benchmark based on the Waymo Open Dataset. Extensive experiments show
that PTTR achieves superior point cloud tracking in both accuracy and
efficiency.
- Abstract(参考訳): ポイントクラウドシーケンスでは、3dオブジェクト追跡はテンプレートポイントクラウドによって現在の検索ポイントクラウド内のオブジェクトの位置と方向を予測することを目的としている。
変圧器の成功に動機づけられた点追尾変圧器(pttr)は,変圧器操作の助けを借りて,高品質な3d追尾結果を高精度に予測する。
PTTRは3つの新しいデザインで構成されている。
1) ランダムサンプリングの代わりに, サブサンプリング中のテンプレートに関連点を保持するリレーアウェアサンプリングを設計する。
2) 自己着脱加群と交差着脱加群からなる点関係変換器(prt)を提案する。
global self-attention operationは、検索エリアとテンプレートのエンコードされたポイント特徴を強化するために、長距離依存関係をキャプチャする。
次に,2組の点特徴をクロスアテンションによってマッチングすることにより,粗い追跡結果を生成する。
3) 粗い追跡結果に基づいて, 最終改良予測を得るために, 新規な予測リファインメントモジュールを用いる。
さらに、waymo open datasetをベースに、大規模なポイントクラウドシングルオブジェクトトラッキングベンチマークを作成します。
広範囲にわたる実験により、PTTRは精度と効率の両方で優れた点雲追跡を実現することが示された。
関連論文リスト
- PTT: Point-Trajectory Transformer for Efficient Temporal 3D Object Detection [66.94819989912823]
時間的3次元物体検出を効率的に行うために,長期記憶が可能な点トラジェクトリ変換器を提案する。
私たちは、メモリバンクのストレージ要件を最小限に抑えるために、現在のフレームオブジェクトのポイントクラウドとその履歴トラジェクトリを入力として使用します。
大規模データセットに対する広範な実験を行い、我々のアプローチが最先端の手法に対してうまく機能することを実証した。
論文 参考訳(メタデータ) (2023-12-13T18:59:13Z) - Grad-PU: Arbitrary-Scale Point Cloud Upsampling via Gradient Descent
with Learned Distance Functions [77.32043242988738]
我々は、任意のアップサンプリングレートをサポートする、正確なポイントクラウドアップサンプリングのための新しいフレームワークを提案する。
提案手法は,まず,所定のアップサンプリング率に応じて低解像度の雲を補間する。
論文 参考訳(メタデータ) (2023-04-24T06:36:35Z) - 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds [95.54285993019843]
本稿では,3次元点雲における複数物体の同時検出と追跡手法を提案する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
論文 参考訳(メタデータ) (2022-11-01T20:59:38Z) - Real-time 3D Single Object Tracking with Transformer [5.000768859809606]
Point-Track-Transformer (PTT) は、ポイントクラウドベースの3Dオブジェクト追跡タスクのためのモジュールである。
PTTモジュールは、注意重みの計算により微調整された注意特徴を生成する。
PTT-Netでは、投票段階と提案段階にPTTを組み込む。
論文 参考訳(メタデータ) (2022-09-02T07:36:20Z) - Implicit and Efficient Point Cloud Completion for 3D Single Object
Tracking [9.372859423951349]
適応リファイン予測(ARP)とターゲット知識伝達(TKT)の2つの新しいモジュールを紹介する。
本モデルでは,より少ない計算量を維持しながら,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-09-01T15:11:06Z) - Exploring Point-BEV Fusion for 3D Point Cloud Object Tracking with
Transformer [62.68401838976208]
3Dオブジェクトトラッキングは、オブジェクトテンプレートが与えられた連続したフレームにおけるオブジェクトの位置と向きを予測することを目的としている。
トランスの成功に触発されたPTTR(Point Tracking TRansformer)を提案する。
論文 参考訳(メタデータ) (2022-08-10T08:36:46Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - DV-Det: Efficient 3D Point Cloud Object Detection with Dynamic
Voxelization [0.0]
本稿では,効率的な3Dポイント・クラウド・オブジェクト検出のための新しい2段階フレームワークを提案する。
生のクラウドデータを3D空間で直接解析するが、目覚ましい効率と精度を実現する。
我々は,75 FPSでKITTI 3Dオブジェクト検出データセットを,25 FPSの推論速度で良好な精度でOpenデータセット上で強調する。
論文 参考訳(メタデータ) (2021-07-27T10:07:39Z) - SPU-Net: Self-Supervised Point Cloud Upsampling by Coarse-to-Fine
Reconstruction with Self-Projection Optimization [52.20602782690776]
実際のスキャンされたスパースデータからトレーニング用の大規模なペアリングスパーススキャンポイントセットを得るのは高価で面倒です。
本研究では,SPU-Net と呼ばれる自己監視型点群アップサンプリングネットワークを提案する。
本研究では,合成データと実データの両方について様々な実験を行い,最先端の教師付き手法と同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-08T14:14:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。