論文の概要: Deep Learning-based Lightweight RGB Object Tracking for Augmented Reality Devices
- arxiv url: http://arxiv.org/abs/2511.17508v1
- Date: Sat, 04 Oct 2025 02:39:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.230946
- Title: Deep Learning-based Lightweight RGB Object Tracking for Augmented Reality Devices
- Title(参考訳): 深層学習に基づく拡張現実デバイスのための軽量RGB物体追跡
- Authors: Alice Smith, Bob Johnson, Xiaoyu Zhu, Carol Lee,
- Abstract要約: Augmented Reality (AR)アプリケーションは、仮想コンテンツを正しくオーバーレイするために、ユーザの環境にあるオブジェクトの堅牢なリアルタイム追跡を必要とする。
コンピュータビジョンの最近の進歩は、非常に正確なディープラーニングベースのオブジェクトトラッカーを生み出しているが、これらのモデルは通常、ウェアラブルARデバイスでは計算とメモリが大きすぎる。
本稿では,資源制約付きARプラットフォーム向けに設計された軽量なRGBオブジェクト追跡アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 2.3102477806624084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Augmented Reality (AR) applications often require robust real-time tracking of objects in the user's environment to correctly overlay virtual content. Recent advances in computer vision have produced highly accurate deep learning-based object trackers, but these models are typically too heavy in computation and memory for wearable AR devices. In this paper, we present a lightweight RGB object tracking algorithm designed specifically for resource-constrained AR platforms. The proposed tracker employs a compact Siamese neural network architecture and incorporates optimization techniques such as model pruning, quantization, and knowledge distillation to drastically reduce model size and inference cost while maintaining high tracking accuracy. We train the tracker offline on large video datasets using deep convolutional neural networks and then deploy it on-device for real-time tracking. Experimental results on standard tracking benchmarks show that our approach achieves comparable accuracy to state-of-the-art trackers, yet runs in real-time on a mobile AR headset at around 30 FPS -- more than an order of magnitude faster than prior high-performance trackers on the same hardware. This work enables practical, robust object tracking for AR use-cases, opening the door to more interactive and dynamic AR experiences on lightweight devices.
- Abstract(参考訳): Augmented Reality (AR)アプリケーションは、仮想コンテンツを正しくオーバーレイするために、ユーザの環境にあるオブジェクトの堅牢なリアルタイム追跡を必要とすることが多い。
コンピュータビジョンの最近の進歩は、非常に正確なディープラーニングベースのオブジェクトトラッカーを生み出しているが、これらのモデルは通常、ウェアラブルARデバイスでは計算とメモリが大きすぎる。
本稿では,資源制約付きARプラットフォーム向けに設計された軽量なRGBオブジェクト追跡アルゴリズムを提案する。
提案したトラッカーは、コンパクトなシームズニューラルネットワークアーキテクチャを採用し、モデルプルーニング、量子化、知識蒸留といった最適化手法を導入し、高いトラッキング精度を維持しながら、モデルサイズと推論コストを大幅に削減する。
我々は、ディープ畳み込みニューラルネットワークを使用して大規模なビデオデータセット上でオフラインでトラッカーをトレーニングし、リアルタイムトラッキングのためにデバイス上でデプロイする。
標準的なトラッキングベンチマークによる実験結果から、我々のアプローチは最先端のトラッカーと同等の精度を達成できるが、モバイルARヘッドセット上では30FPS前後でリアルタイムに動作し、同じハードウェア上で以前のハイパフォーマンストラッカーよりも桁違いに高速であることがわかった。
この作業により、ARユースケースのための実用的で堅牢なオブジェクトトラッキングが可能になり、軽量デバイス上でのよりインタラクティブでダイナミックなARエクスペリエンスへの扉を開くことができる。
関連論文リスト
- SwiTrack: Tri-State Switch for Cross-Modal Object Tracking [74.15663758681849]
クロスモーダルオブジェクトトラッキング(CMOT)は、ビデオストリームが異なるモード間で切り替える間、ターゲットの一貫性を維持する新しいタスクである。
SwiTrackは3つの特別なストリームを配置することでCMOTを再定義する新しいステートスイッチングフレームワークである。
論文 参考訳(メタデータ) (2025-11-20T10:52:54Z) - SMTrack: End-to-End Trained Spiking Neural Networks for Multi-Object Tracking in RGB Videos [8.673924616309698]
脳にインスパイアされたスパイキングニューラルネットワーク(SNN)は、低消費電力計算において大きな可能性を秘めている。
視覚タスクにおけるそれらの応用は、画像分類、オブジェクト検出、イベントベースのトラッキングに限られている。
SMTrack - 標準RGBビデオにおけるエンドツーエンドのマルチオブジェクト追跡のための、最初の直接訓練されたディープSNNフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-20T10:47:37Z) - RGBTrack: Fast, Robust Depth-Free 6D Pose Estimation and Tracking [24.866881488130407]
リアルタイムな6Dポーズ推定と追跡のためのロバストなフレームワークRGBTrackを導入する。
我々は、深度を効率的に推測するレンダリング・アンド・コンパートメント機構と組み合わせた、新しいバイナリ検索戦略を考案した。
RGBTrackの新たなディープフリーアプローチは,競合精度とリアルタイム性能を実現する。
論文 参考訳(メタデータ) (2025-06-20T16:19:28Z) - LiteTracker: Leveraging Temporal Causality for Accurate Low-latency Tissue Tracking [86.67583223579851]
LiteTrackerは、内視鏡的ビデオストリームにおける組織追跡のための低遅延手法である。
LiteTrackerは最先端の長期追跡手法に基づいており、トレーニング不要なランタイム最適化のセットを導入している。
論文 参考訳(メタデータ) (2025-04-14T05:53:57Z) - Depth Attention for Robust RGB Tracking [21.897255266278275]
本稿では,RGBビデオシーケンスにおける動きのぼかしの影響や視界外なターゲット追跡の課題に対処するために,単眼深度推定を利用した新しいフレームワークを提案する。
我々の知識を最大限に活用するために、我々は最初に深度注意機構を提案し、深度情報と美術追跡アルゴリズムの状態をシームレスに統合するシンプルなフレームワークを定式化した。
論文 参考訳(メタデータ) (2024-10-27T09:47:47Z) - Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - PNAS-MOT: Multi-Modal Object Tracking with Pareto Neural Architecture Search [64.28335667655129]
複数の物体追跡は、自律運転において重要な課題である。
トラッキングの精度が向上するにつれて、ニューラルネットワークはますます複雑になり、レイテンシが高いため、実際の運転シナリオにおける実践的な応用に課題が生じる。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法を用いて追跡のための効率的なアーキテクチャを探索し,比較的高い精度を維持しつつ,低リアルタイム遅延を実現することを目的とした。
論文 参考訳(メタデータ) (2024-03-23T04:18:49Z) - BEVTrack: A Simple and Strong Baseline for 3D Single Object Tracking in Bird's-Eye View [54.48052449493636]
3Dシングルオブジェクトトラッキング(SOT)はコンピュータビジョンの基本課題であり、自律運転のようなアプリケーションにおいて重要な役割を果たす。
BEVTrackは、シンプルだが効果的な動きに基づくトラッキング手法である。
我々は,BEVTrackが200FPSで動作しながら最先端の結果を達成し,リアルタイム適用性を実現していることを示す。
論文 参考訳(メタデータ) (2023-09-05T12:42:26Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。