論文の概要: Instant 3D Object Tracking with Applications in Augmented Reality
- arxiv url: http://arxiv.org/abs/2006.13194v1
- Date: Tue, 23 Jun 2020 17:48:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 23:28:23.890566
- Title: Instant 3D Object Tracking with Applications in Augmented Reality
- Title(参考訳): 拡張現実におけるインスタント3次元物体追跡
- Authors: Adel Ahmadyan, Tingbo Hou, Jianing Wei, Liangkai Zhang, Artsiom
Ablavatski, Matthias Grundmann
- Abstract要約: 3Dでオブジェクトのポーズを追跡することは拡張現実アプリケーションにとって重要なビルディングブロックである。
本研究では,物体の空間における姿勢をモバイルデバイス上でリアルタイムに追跡するインスタントモーショントラッキングシステムを提案する。
- 参考スコア(独自算出の注目度): 4.893345190925178
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tracking object poses in 3D is a crucial building block for Augmented Reality
applications. We propose an instant motion tracking system that tracks an
object's pose in space (represented by its 3D bounding box) in real-time on
mobile devices. Our system does not require any prior sensory calibration or
initialization to function. We employ a deep neural network to detect objects
and estimate their initial 3D pose. Then the estimated pose is tracked using a
robust planar tracker. Our tracker is capable of performing relative-scale
9-DoF tracking in real-time on mobile devices. By combining use of CPU and GPU
efficiently, we achieve 26-FPS+ performance on mobile devices.
- Abstract(参考訳): 3dでのオブジェクトポーズ追跡は、拡張現実アプリケーションにとって重要なビルディングブロックである。
本研究では,物体の空間におけるポーズ(3Dバウンディングボックスで表される)をモバイルデバイス上でリアルタイムに追跡するインスタントモーショントラッキングシステムを提案する。
本システムは,事前の感覚キャリブレーションや初期化を必要としない。
我々は、深層ニューラルネットワークを用いて物体を検出し、最初の3dポーズを推定する。
そして、ロバストな平面追跡装置を用いて推定ポーズを追跡する。
我々のトラッカーは、モバイルデバイス上で比較的大規模な9-DoF追跡を行うことができる。
CPUとGPUを効率よく組み合わせることで、モバイルデバイス上で26-FPS以上のパフォーマンスを実現する。
関連論文リスト
- Long-Term 3D Point Tracking By Cost Volume Fusion [2.3411633024711573]
テストタイムの微調整を必要とせず,新たなポイントやビデオに一般化する3Dの長期追跡のための,最初のディープラーニングフレームワークを提案する。
モデルでは,複数過去の外観と動き情報をトランスフォーマーアーキテクチャで統合し,全体的なトラッキング性能を大幅に向上させる。
論文 参考訳(メタデータ) (2024-07-18T09:34:47Z) - Delving into Motion-Aware Matching for Monocular 3D Object Tracking [81.68608983602581]
異なる時間軸に沿った物体の運動キューが3次元多物体追跡において重要であることが判明した。
3つの動き認識コンポーネントからなるフレームワークであるMoMA-M3Tを提案する。
我々はnuScenesとKITTIデータセットに関する広範な実験を行い、MoMA-M3Tが最先端の手法と競合する性能を発揮することを実証した。
論文 参考訳(メタデータ) (2023-08-22T17:53:58Z) - A Lightweight and Detector-free 3D Single Object Tracker on Point Clouds [50.54083964183614]
生のLiDARスキャンにおける物体の点雲は、通常スパースで不完全であるため、正確な目標固有検出を行うのは簡単ではない。
DMTは、複雑な3D検出器の使用を完全に除去する3Dトラッキングネットワークである。
論文 参考訳(メタデータ) (2022-03-08T17:49:07Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Fast and Furious: Real Time End-to-End 3D Detection, Tracking and Motion
Forecasting with a Single Convolutional Net [93.51773847125014]
本研究では,3Dセンサが捉えたデータを用いて,3D検出,追跡,動作予測を共同で推論する,新たなディープニューラルネットワークを提案する。
鳥の眼球を3次元の世界として表現し,空間と時間にまたがる3次元畳み込みを行う。
論文 参考訳(メタデータ) (2020-12-22T22:43:35Z) - Kinematic 3D Object Detection in Monocular Video [123.7119180923524]
運動運動を注意深く利用して3次元位置決めの精度を向上させるモノクロ映像を用いた3次元物体検出法を提案する。
我々は、KITTI自動運転データセット内のモノクロ3次元物体検出とバードアイビュータスクの最先端性能を達成する。
論文 参考訳(メタデータ) (2020-07-19T01:15:12Z) - RUHSNet: 3D Object Detection Using Lidar Data in Real Time [0.0]
本稿では,ポイントクラウドデータ中の3次元物体を検出するニューラルネットワークアーキテクチャを提案する。
我々の研究は、平均的な精度と30FPSの速度の両方において、この分野の最先端技術を上回っている。
これにより、自動運転車を含むリアルタイムアプリケーションにデプロイすることが可能になる。
論文 参考訳(メタデータ) (2020-05-09T09:41:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。