論文の概要: DeepTracking-Net: 3D Tracking with Unsupervised Learning of Continuous
Flow
- arxiv url: http://arxiv.org/abs/2006.13848v1
- Date: Wed, 24 Jun 2020 16:20:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 12:58:30.161114
- Title: DeepTracking-Net: 3D Tracking with Unsupervised Learning of Continuous
Flow
- Title(参考訳): deeptracking-net: 連続流れの教師なし学習による3次元トラッキング
- Authors: Shuaihang Yuan, Xiang Li, Yi Fang
- Abstract要約: 本論文は3次元追跡の問題,すなわち時間変化の連続した3次元形状における密度の高い対応を見つけることを扱う。
本稿では、ディープニューラルネットワーク(DNN)を補助機能として利用するDeepTracking-Netという、教師なし3次元形状のフレームワークを提案する。
さらに,SynMotionsと呼ばれる新しい合成3Dデータを3D追跡・認識コミュニティに準備する。
- 参考スコア(独自算出の注目度): 12.690471276907445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper deals with the problem of 3D tracking, i.e., to find dense
correspondences in a sequence of time-varying 3D shapes. Despite deep learning
approaches have achieved promising performance for pairwise dense 3D shapes
matching, it is a great challenge to generalize those approaches for the
tracking of 3D time-varying geometries. In this paper, we aim at handling the
problem of 3D tracking, which provides the tracking of the consecutive frames
of 3D shapes. We propose a novel unsupervised 3D shape registration framework
named DeepTracking-Net, which uses the deep neural networks (DNNs) as auxiliary
functions to produce spatially and temporally continuous displacement fields
for 3D tracking of objects in a temporal order. Our key novelty is that we
present a novel temporal-aware correspondence descriptor (TCD) that captures
spatio-temporal essence from consecutive 3D point cloud frames. Specifically,
our DeepTracking-Net starts with optimizing a randomly initialized latent TCD.
The TCD is then decoded to regress a continuous flow (i.e. a displacement
vector field) which assigns a motion vector to every point of time-varying 3D
shapes. Our DeepTracking-Net jointly optimizes TCDs and DNNs' weights towards
the minimization of an unsupervised alignment loss. Experiments on both
simulated and real data sets demonstrate that our unsupervised DeepTracking-Net
outperforms the current supervised state-of-the-art method. In addition, we
prepare a new synthetic 3D data, named SynMotions, to the 3D tracking and
recognition community.
- Abstract(参考訳): 本稿では,3次元形状の時系列における密接な対応を求める3次元追跡の問題を扱う。
深層学習手法は, 対方向の高密度な3次元形状マッチングにおいて有望な性能を達成しているが, 3次元時間変化測度追跡においてそれらの手法を一般化することは大きな課題である。
本稿では,3次元形状の連続フレームを追跡する3次元追跡の問題に対処することを目的としている。
本稿では、ディープニューラルネットワーク(DNN)を補助関数として用いて、時間順に物体の3次元追跡のための空間的かつ時間的に連続的な変位場を生成する、DeepTracking-Netという新しい教師なし3次元形状登録フレームワークを提案する。
我々は,連続する3次元点雲フレームから時空間的本質を捉えた新しい時空間対応記述子(tcd)を提案する。
具体的には、DeepTracking-Netはランダムに初期化された潜在TDを最適化することから始まります。
その後、TCDを復号して連続流(すなわち変位ベクトル場)を回帰し、時間変化した3次元形状のすべての点に運動ベクトルを割り当てる。
我々のDeepTracking-Netは、教師なしアライメント損失の最小化に向けて、TDとDNNの重みを共同で最適化する。
シミュレーションと実データの両方の実験では、教師なしのDeepTracking-Netが現在の教師付き最先端手法よりも優れていることが示されています。
さらに,synmotionsと呼ばれる新しい合成3dデータを作成し,3dトラッキングと認識コミュニティに提供した。
関連論文リスト
- Time3D: End-to-End Joint Monocular 3D Object Detection and Tracking for
Autonomous Driving [3.8073142980733]
本稿では,モノクローナルビデオのみからエンドツーエンドに3D検出と3D追跡を共同で行うことを提案する。
Time3Dは21.4%のAMOTA、13.6%のAMOTPをnuScenesの3D追跡ベンチマークで達成し、全競合を抜いた。
論文 参考訳(メタデータ) (2022-05-30T06:41:10Z) - A Lightweight and Detector-free 3D Single Object Tracker on Point Clouds [50.54083964183614]
生のLiDARスキャンにおける物体の点雲は、通常スパースで不完全であるため、正確な目標固有検出を行うのは簡単ではない。
DMTは、複雑な3D検出器の使用を完全に除去する3Dトラッキングネットワークである。
論文 参考訳(メタデータ) (2022-03-08T17:49:07Z) - 3D Visual Tracking Framework with Deep Learning for Asteroid Exploration [22.808962211830675]
本稿では,3次元追跡のための高精度かつリアルタイムな手法について検討する。
両眼ビデオシーケンス、深度マップ、様々な小惑星の点雲を含む、新しい大規模な3D小惑星追跡データセットが提示されている。
深層学習に基づく3DトラッキングフレームワークTrack3Dを提案する。このフレームワークは,2次元単分子トラッカーと,新しい軽量アモーダル軸整合バウンディングボックスネットワークであるA3BoxNetを備える。
論文 参考訳(メタデータ) (2021-11-21T04:14:45Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - FGR: Frustum-Aware Geometric Reasoning for Weakly Supervised 3D Vehicle
Detection [81.79171905308827]
3Dアノテーションを使わずに点雲中の車両を検出するためのフラストラム対応幾何推論(FGR)を提案する。
本手法は粗い3次元セグメンテーションと3次元バウンディングボックス推定の2段階からなる。
2Dバウンディングボックスとスパースポイントクラウドだけで、3D空間内のオブジェクトを正確に検出できます。
論文 参考訳(メタデータ) (2021-05-17T07:29:55Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - ST3D: Self-training for Unsupervised Domain Adaptation on 3D
ObjectDetection [78.71826145162092]
点雲からの3次元物体検出における教師なし領域適応のための新しい領域適応型自己学習パイプラインST3Dを提案する。
当社のST3Dは、評価されたすべてのデータセットで最先端のパフォーマンスを達成し、KITTI 3Dオブジェクト検出ベンチマークで完全に監視された結果を超えます。
論文 参考訳(メタデータ) (2021-03-09T10:51:24Z) - Fast and Furious: Real Time End-to-End 3D Detection, Tracking and Motion
Forecasting with a Single Convolutional Net [93.51773847125014]
本研究では,3Dセンサが捉えたデータを用いて,3D検出,追跡,動作予測を共同で推論する,新たなディープニューラルネットワークを提案する。
鳥の眼球を3次元の世界として表現し,空間と時間にまたがる3次元畳み込みを行う。
論文 参考訳(メタデータ) (2020-12-22T22:43:35Z) - Joint Spatial-Temporal Optimization for Stereo 3D Object Tracking [34.40019455462043]
本研究では,空間時間最適化に基づくステレオ3次元物体追跡手法を提案する。
ネットワークから隣接画像上の対応する2Dバウンディングボックスを検出し,初期3Dバウンディングボックスを回帰する。
オブジェクトセントロイドに関連づけられた複雑なオブジェクトキューは、リージョンベースのネットワークを使用して予測される。
論文 参考訳(メタデータ) (2020-04-20T13:59:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。