論文の概要: 3D Visual Tracking Framework with Deep Learning for Asteroid Exploration
- arxiv url: http://arxiv.org/abs/2111.10737v1
- Date: Sun, 21 Nov 2021 04:14:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 15:50:27.074214
- Title: 3D Visual Tracking Framework with Deep Learning for Asteroid Exploration
- Title(参考訳): 深層学習による小惑星探査のための3次元視覚追跡フレームワーク
- Authors: Dong Zhou, Gunaghui Sun, Xiaopeng Hong
- Abstract要約: 本稿では,3次元追跡のための高精度かつリアルタイムな手法について検討する。
両眼ビデオシーケンス、深度マップ、様々な小惑星の点雲を含む、新しい大規模な3D小惑星追跡データセットが提示されている。
深層学習に基づく3DトラッキングフレームワークTrack3Dを提案する。このフレームワークは,2次元単分子トラッカーと,新しい軽量アモーダル軸整合バウンディングボックスネットワークであるA3BoxNetを備える。
- 参考スコア(独自算出の注目度): 22.808962211830675
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: 3D visual tracking is significant to deep space exploration programs, which
can guarantee spacecraft to flexibly approach the target. In this paper, we
focus on the studied accurate and real-time method for 3D tracking. Considering
the fact that there are almost no public dataset for this topic, A new
large-scale 3D asteroid tracking dataset is presented, including binocular
video sequences, depth maps, and point clouds of diverse asteroids with various
shapes and textures. Benefitting from the power and convenience of simulation
platform, all the 2D and 3D annotations are automatically generated. Meanwhile,
we propose a deep-learning based 3D tracking framework, named as Track3D, which
involves 2D monocular tracker and a novel light-weight amodal axis-aligned
bounding-box network, A3BoxNet. The evaluation results demonstrate that Track3D
achieves state-of-the-art 3D tracking performance in both accuracy and
precision, comparing to a baseline algorithm. Moreover, our framework has great
generalization ability to 2D monocular tracking performance.
- Abstract(参考訳): 3D視覚追跡は、宇宙船がターゲットに柔軟に接近することを保証できる深宇宙探査プログラムにとって重要である。
本稿では,3次元追跡のための高精度かつリアルタイムな手法について述べる。
このトピックの公開データセットがほとんどないという事実を考慮すると、両眼ビデオシーケンス、深度マップ、様々な形状とテクスチャを持つ多様な小惑星の点雲を含む、新しい大規模な3D小惑星追跡データセットが提示される。
シミュレーションプラットフォームのパワーと利便性から、すべての2Dおよび3Dアノテーションが自動的に生成される。
本研究では,2dモノキュラートラッカと新しい軽量アモーダル軸配置バウンディングボックスネットワークであるa3boxnetを含む,track3dと呼ばれるディープラーニングベースの3dトラッキングフレームワークを提案する。
評価の結果,Track3Dは,ベースラインアルゴリズムと比較して,精度と精度の両方で最先端の3Dトラッキング性能を達成できることがわかった。
さらに, 2次元単眼追跡性能に優れた一般化能力を有する。
関連論文リスト
- TAPVid-3D: A Benchmark for Tracking Any Point in 3D [63.060421798990845]
我々は,3Dにおける任意の点の追跡作業を評価するための新しいベンチマークTAPVid-3Dを導入する。
このベンチマークは、モノクロビデオから正確な3Dの動きと表面の変形を理解する能力を改善するためのガイドポストとして機能する。
論文 参考訳(メタデータ) (2024-07-08T13:28:47Z) - SpatialTracker: Tracking Any 2D Pixels in 3D Space [71.58016288648447]
本稿では,画像投影による問題点を軽減するために,3次元空間における点軌道の推定を提案する。
この手法はSpatialTrackerと呼ばれ、2Dピクセルをモノクロ深度推定器を用いて3Dにリフトする。
3Dでのトラッキングにより、ピクセルを異なる剛性部分にクラスタ化する剛性埋め込みを同時に学習しながら、ARAP(as-rigid-as-possible)制約を活用することができます。
論文 参考訳(メタデータ) (2024-04-05T17:59:25Z) - Time3D: End-to-End Joint Monocular 3D Object Detection and Tracking for
Autonomous Driving [3.8073142980733]
本稿では,モノクローナルビデオのみからエンドツーエンドに3D検出と3D追跡を共同で行うことを提案する。
Time3Dは21.4%のAMOTA、13.6%のAMOTPをnuScenesの3D追跡ベンチマークで達成し、全競合を抜いた。
論文 参考訳(メタデータ) (2022-05-30T06:41:10Z) - From Multi-View to Hollow-3D: Hallucinated Hollow-3D R-CNN for 3D Object
Detection [101.20784125067559]
本稿では,3次元物体検出の問題に対処するため,Halucinated Hollow-3D R-CNNという新しいアーキテクチャを提案する。
本稿では,まず,視点ビューと鳥眼ビューに点雲を逐次投影することで,多視点特徴を抽出する。
3Dオブジェクトは、新しい階層型Voxel RoIプール操作でボックスリファインメントモジュールを介して検出される。
論文 参考訳(メタデータ) (2021-07-30T02:00:06Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - FGR: Frustum-Aware Geometric Reasoning for Weakly Supervised 3D Vehicle
Detection [81.79171905308827]
3Dアノテーションを使わずに点雲中の車両を検出するためのフラストラム対応幾何推論(FGR)を提案する。
本手法は粗い3次元セグメンテーションと3次元バウンディングボックス推定の2段階からなる。
2Dバウンディングボックスとスパースポイントクラウドだけで、3D空間内のオブジェクトを正確に検出できます。
論文 参考訳(メタデータ) (2021-05-17T07:29:55Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - F-Siamese Tracker: A Frustum-based Double Siamese Network for 3D Single
Object Tracking [12.644452175343059]
3Dオブジェクト追跡の主な課題は、適切な3D候補を生成するための検索スペースを減らす方法である。
3Dプロポーザルに頼る代わりに、2D領域プロポーザルを生成し、それを3Dビューイングフラストラムに出力する。
我々は3次元フラストラム上でオンラインの精度検証を行い、洗練された点雲探索空間を生成する。
論文 参考訳(メタデータ) (2020-10-22T08:01:17Z) - DeepTracking-Net: 3D Tracking with Unsupervised Learning of Continuous
Flow [12.690471276907445]
本論文は3次元追跡の問題,すなわち時間変化の連続した3次元形状における密度の高い対応を見つけることを扱う。
本稿では、ディープニューラルネットワーク(DNN)を補助機能として利用するDeepTracking-Netという、教師なし3次元形状のフレームワークを提案する。
さらに,SynMotionsと呼ばれる新しい合成3Dデータを3D追跡・認識コミュニティに準備する。
論文 参考訳(メタデータ) (2020-06-24T16:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。