論文の概要: Deep Learning-based Lightweight RGB Object Tracking for Augmented Reality Devices
- arxiv url: http://arxiv.org/abs/2511.17508v1
- Date: Sat, 04 Oct 2025 02:39:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.230946
- Title: Deep Learning-based Lightweight RGB Object Tracking for Augmented Reality Devices
- Title(参考訳): 深層学習に基づく拡張現実デバイスのための軽量RGB物体追跡
- Authors: Alice Smith, Bob Johnson, Xiaoyu Zhu, Carol Lee,
- Abstract要約: Augmented Reality (AR)アプリケーションは、仮想コンテンツを正しくオーバーレイするために、ユーザの環境にあるオブジェクトの堅牢なリアルタイム追跡を必要とする。
コンピュータビジョンの最近の進歩は、非常に正確なディープラーニングベースのオブジェクトトラッカーを生み出しているが、これらのモデルは通常、ウェアラブルARデバイスでは計算とメモリが大きすぎる。
本稿では,資源制約付きARプラットフォーム向けに設計された軽量なRGBオブジェクト追跡アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 2.3102477806624084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Augmented Reality (AR) applications often require robust real-time tracking of objects in the user's environment to correctly overlay virtual content. Recent advances in computer vision have produced highly accurate deep learning-based object trackers, but these models are typically too heavy in computation and memory for wearable AR devices. In this paper, we present a lightweight RGB object tracking algorithm designed specifically for resource-constrained AR platforms. The proposed tracker employs a compact Siamese neural network architecture and incorporates optimization techniques such as model pruning, quantization, and knowledge distillation to drastically reduce model size and inference cost while maintaining high tracking accuracy. We train the tracker offline on large video datasets using deep convolutional neural networks and then deploy it on-device for real-time tracking. Experimental results on standard tracking benchmarks show that our approach achieves comparable accuracy to state-of-the-art trackers, yet runs in real-time on a mobile AR headset at around 30 FPS -- more than an order of magnitude faster than prior high-performance trackers on the same hardware. This work enables practical, robust object tracking for AR use-cases, opening the door to more interactive and dynamic AR experiences on lightweight devices.
- Abstract(参考訳): Augmented Reality (AR)アプリケーションは、仮想コンテンツを正しくオーバーレイするために、ユーザの環境にあるオブジェクトの堅牢なリアルタイム追跡を必要とすることが多い。
コンピュータビジョンの最近の進歩は、非常に正確なディープラーニングベースのオブジェクトトラッカーを生み出しているが、これらのモデルは通常、ウェアラブルARデバイスでは計算とメモリが大きすぎる。
本稿では,資源制約付きARプラットフォーム向けに設計された軽量なRGBオブジェクト追跡アルゴリズムを提案する。
提案したトラッカーは、コンパクトなシームズニューラルネットワークアーキテクチャを採用し、モデルプルーニング、量子化、知識蒸留といった最適化手法を導入し、高いトラッキング精度を維持しながら、モデルサイズと推論コストを大幅に削減する。
我々は、ディープ畳み込みニューラルネットワークを使用して大規模なビデオデータセット上でオフラインでトラッカーをトレーニングし、リアルタイムトラッキングのためにデバイス上でデプロイする。
標準的なトラッキングベンチマークによる実験結果から、我々のアプローチは最先端のトラッカーと同等の精度を達成できるが、モバイルARヘッドセット上では30FPS前後でリアルタイムに動作し、同じハードウェア上で以前のハイパフォーマンストラッカーよりも桁違いに高速であることがわかった。
この作業により、ARユースケースのための実用的で堅牢なオブジェクトトラッキングが可能になり、軽量デバイス上でのよりインタラクティブでダイナミックなARエクスペリエンスへの扉を開くことができる。
関連論文リスト
- SMTrack: End-to-End Trained Spiking Neural Networks for Multi-Object Tracking in RGB Videos [8.673924616309698]
脳にインスパイアされたスパイキングニューラルネットワーク(SNN)は、低消費電力計算において大きな可能性を秘めている。
視覚タスクにおけるそれらの応用は、画像分類、オブジェクト検出、イベントベースのトラッキングに限られている。
SMTrack - 標準RGBビデオにおけるエンドツーエンドのマルチオブジェクト追跡のための、最初の直接訓練されたディープSNNフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-20T10:47:37Z) - LiteTracker: Leveraging Temporal Causality for Accurate Low-latency Tissue Tracking [86.67583223579851]
LiteTrackerは、内視鏡的ビデオストリームにおける組織追跡のための低遅延手法である。
LiteTrackerは最先端の長期追跡手法に基づいており、トレーニング不要なランタイム最適化のセットを導入している。
論文 参考訳(メタデータ) (2025-04-14T05:53:57Z) - Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - PNAS-MOT: Multi-Modal Object Tracking with Pareto Neural Architecture Search [64.28335667655129]
複数の物体追跡は、自律運転において重要な課題である。
トラッキングの精度が向上するにつれて、ニューラルネットワークはますます複雑になり、レイテンシが高いため、実際の運転シナリオにおける実践的な応用に課題が生じる。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法を用いて追跡のための効率的なアーキテクチャを探索し,比較的高い精度を維持しつつ,低リアルタイム遅延を実現することを目的とした。
論文 参考訳(メタデータ) (2024-03-23T04:18:49Z) - BEVTrack: A Simple and Strong Baseline for 3D Single Object Tracking in Bird's-Eye View [54.48052449493636]
3Dシングルオブジェクトトラッキング(SOT)はコンピュータビジョンの基本課題であり、自律運転のようなアプリケーションにおいて重要な役割を果たす。
BEVTrackは、シンプルだが効果的な動きに基づくトラッキング手法である。
我々は,BEVTrackが200FPSで動作しながら最先端の結果を達成し,リアルタイム適用性を実現していることを示す。
論文 参考訳(メタデータ) (2023-09-05T12:42:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。