論文の概要: Robust 3D Tracking with Quality-Aware Shape Completion
- arxiv url: http://arxiv.org/abs/2312.10608v1
- Date: Sun, 17 Dec 2023 04:50:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 15:30:24.725256
- Title: Robust 3D Tracking with Quality-Aware Shape Completion
- Title(参考訳): 形状を考慮したロバスト3次元トラッキング
- Authors: Jingwen Zhang, Zikun Zhou, Guangming Lu, Jiandong Tian, Wenjie Pei
- Abstract要約: そこで本研究では,高密度および完全点の雲からなる合成対象表現について,ロバストな3次元追跡のための形状完備化により正確に表現する。
具体的には, 形状が整ったボキセル化3次元追跡フレームワークを設計し, ノイズのある歴史的予測の悪影響を軽減するために, 品質に配慮した形状完備化機構を提案する。
- 参考スコア(独自算出の注目度): 67.9748164949519
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D single object tracking remains a challenging problem due to the sparsity
and incompleteness of the point clouds. Existing algorithms attempt to address
the challenges in two strategies. The first strategy is to learn dense
geometric features based on the captured sparse point cloud. Nevertheless, it
is quite a formidable task since the learned dense geometric features are with
high uncertainty for depicting the shape of the target object. The other
strategy is to aggregate the sparse geometric features of multiple templates to
enrich the shape information, which is a routine solution in 2D tracking.
However, aggregating the coarse shape representations can hardly yield a
precise shape representation. Different from 2D pixels, 3D points of different
frames can be directly fused by coordinate transform, i.e., shape completion.
Considering that, we propose to construct a synthetic target representation
composed of dense and complete point clouds depicting the target shape
precisely by shape completion for robust 3D tracking. Specifically, we design a
voxelized 3D tracking framework with shape completion, in which we propose a
quality-aware shape completion mechanism to alleviate the adverse effect of
noisy historical predictions. It enables us to effectively construct and
leverage the synthetic target representation. Besides, we also develop a
voxelized relation modeling module and box refinement module to improve
tracking performance. Favorable performance against state-of-the-art algorithms
on three benchmarks demonstrates the effectiveness and generalization ability
of our method.
- Abstract(参考訳): 3Dオブジェクト追跡は、点雲の空間性と不完全性のため、依然として難しい問題である。
既存のアルゴリズムは、2つの戦略で課題に対処しようとする。
最初の戦略は、捕獲されたスパースポイント雲に基づいて密度の高い幾何学的特徴を学ぶことである。
それにもかかわらず、学習された密集した幾何学的特徴は対象物体の形状を描写する上で不確実性が高いため、かなりの作業である。
もう1つの戦略は、複数のテンプレートのばらばらな幾何学的特徴を集約して形状情報を豊かにすることだ。
しかし、粗い形状表現を集約しても正確な形状表現は得られない。
2Dピクセルとは異なり、異なるフレームの3Dポイントは座標変換、すなわち形状完備化によって直接融合することができる。
そこで本研究では,高密度および完全点の雲からなる合成対象表現を,頑健な3次元追跡のための形状完備化により正確に表現することを提案する。
具体的には, 形状完了を伴うボクセル化3次元トラッキングフレームワークの設計を行い, 騒音の履歴予測の悪影響を緩和する品質認識型形状完了機構を提案する。
これにより、合成対象表現を効果的に構築し、活用することができる。
また,トラッキング性能を向上させるために,ボクセル化関係モデリングモジュールとボックスリファインメントモジュールも開発した。
3つのベンチマークにおける最先端アルゴリズムに対する良好な性能は,提案手法の有効性と一般化能力を示している。
関連論文リスト
- Object-Centric Domain Randomization for 3D Shape Reconstruction in the Wild [22.82439286651921]
ワンビュー3次元形状復元における最大の課題の1つは、現実世界の環境から得られる3次元形状2次元画像データの不足である。
ドメインランダム化による顕著な成果にインスパイアされたObjectDRは、オブジェクトの外観や背景の視覚的変化をランダムにシミュレーションすることで、そのようなペア化されたデータを合成する。
論文 参考訳(メタデータ) (2024-03-21T16:40:10Z) - Dynamic 3D Point Cloud Sequences as 2D Videos [81.46246338686478]
3Dポイントクラウドシーケンスは、現実世界の環境における最も一般的で実用的な表現の1つとして機能する。
textitStructured Point Cloud Videos (SPCV) と呼ばれる新しい汎用表現を提案する。
SPCVは点雲列を空間的滑らかさと時間的一貫性を持つ2Dビデオとして再編成し、画素値は点の3D座標に対応する。
論文 参考訳(メタデータ) (2024-03-02T08:18:57Z) - Uncertainty-aware 3D Object-Level Mapping with Deep Shape Priors [15.34487368683311]
未知のオブジェクトに対して高品質なオブジェクトレベルマップを再構築するフレームワークを提案する。
提案手法では,複数のRGB-D画像を入力として,高密度な3次元形状と検出対象に対する9-DoFポーズを出力する。
2つの新たな損失関数を通して形状を伝播し不確実性を生じさせる確率的定式化を導出する。
論文 参考訳(メタデータ) (2023-09-17T00:48:19Z) - MS23D: A 3D Object Detection Method Using Multi-Scale Semantic Feature Points to Construct 3D Feature Layer [4.644319899528183]
LiDAR点雲は、三次元空間における物体の動きと姿勢を効果的に描写することができる。
自律運転のシナリオでは、点雲の空間性と空洞性は、ボクセルベースの方法にいくつかの困難をもたらす。
我々はMS23Dと呼ばれる2段階の3Dオブジェクト検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-31T08:03:25Z) - LIST: Learning Implicitly from Spatial Transformers for Single-View 3D
Reconstruction [5.107705550575662]
Listは、局所的およびグローバルな画像特徴を活用して、単一の画像から3Dオブジェクトの幾何学的および位相的構造を再構築する、新しいニューラルネットワークである。
合成画像と実世界の画像から3Dオブジェクトを再構成する際のモデルの有用性を示す。
論文 参考訳(メタデータ) (2023-07-23T01:01:27Z) - Beyond 3DMM: Learning to Capture High-fidelity 3D Face Shape [77.95154911528365]
3Dモーフィブルモデル(3DMM)の適合性は、その強力な3D先行性のため、顔解析に広く有用である。
以前に再建された3次元顔は、微細な形状が失われるため、視差の低下に悩まされていた。
本論文は, パーソナライズされた形状が対応する人物と同一に見えるよう, パーソナライズされた形状を捉えるための完全な解を提案する。
論文 参考訳(メタデータ) (2022-04-09T03:46:18Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - AutoShape: Real-Time Shape-Aware Monocular 3D Object Detection [15.244852122106634]
形状認識型2D/3D制約を3D検出フレームワークに組み込む手法を提案する。
具体的には、ディープニューラルネットワークを用いて、2次元画像領域の区別された2Dキーポイントを学習する。
2D/3Dキーポイントの基礎的真理を生成するために、自動的なモデル適合手法が提案されている。
論文 参考訳(メタデータ) (2021-08-25T08:50:06Z) - Hard Example Generation by Texture Synthesis for Cross-domain Shape
Similarity Learning [97.56893524594703]
画像に基づく3次元形状検索(IBSR)は、与えられた2次元画像の対応する3次元形状を、大きな3次元形状データベースから見つけることを目的としている。
いくつかの適応技法によるメートル法学習は、類似性学習を形作るための自然な解決策のようです。
テクスチャ合成を応用した幾何中心の多視点メトリック学習フレームワークを開発した。
論文 参考訳(メタデータ) (2020-10-23T08:52:00Z) - SSN: Shape Signature Networks for Multi-class Object Detection from
Point Clouds [96.51884187479585]
点雲から形状情報を探索する新しい3次元形状シグネチャを提案する。
対称, 凸船体, チェビシェフフィッティングの操作を取り入れることで, 提案した形状のシグ・ナチュアはコンパクトで有効であるだけでなく, 騒音にも頑健である。
実験により,提案手法は2つの大規模データセット上の既存手法よりも著しく優れた性能を示した。
論文 参考訳(メタデータ) (2020-04-06T16:01:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。