論文の概要: K-Track: Kalman-Enhanced Tracking for Accelerating Deep Point Trackers on Edge Devices
- arxiv url: http://arxiv.org/abs/2512.10628v1
- Date: Thu, 11 Dec 2025 13:26:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.37629
- Title: K-Track: Kalman-Enhanced Tracking for Accelerating Deep Point Trackers on Edge Devices
- Title(参考訳): K-Track: エッジデバイス上でのディープポイントトラッカーの高速化のためのKalman拡張トラッキング
- Authors: Bishoy Galoaa, Pau Closas, Sarah Ostadabbas,
- Abstract要約: ビデオシーケンスにおけるポイントトラッキングは、ロボット工学、自律システム、拡張現実、ビデオ分析など、現実世界のコンピュータビジョンアプリケーションのための機能である。
最近のディープラーニングベースのトラッカーは、挑戦的なベンチマークで最先端の精度を達成する一方で、フレーム単位の推論への依存は、リソース制約のあるエッジデバイスへのデプロイメントにおいて大きな障壁となる。
我々は、このデプロイメントギャップを埋めるために設計された汎用トラッカーに依存しないアクセラレーションフレームワークであるK-Trackを紹介する。
- 参考スコア(独自算出の注目度): 8.929138500431433
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Point tracking in video sequences is a foundational capability for real-world computer vision applications, including robotics, autonomous systems, augmented reality, and video analysis. While recent deep learning-based trackers achieve state-of-the-art accuracy on challenging benchmarks, their reliance on per-frame GPU inference poses a major barrier to deployment on resource-constrained edge devices, where compute, power, and connectivity are limited. We introduce K-Track (Kalman-enhanced Tracking), a general-purpose, tracker-agnostic acceleration framework designed to bridge this deployment gap. K-Track reduces inference cost by combining sparse deep learning keyframe updates with lightweight Kalman filtering for intermediate frame prediction, using principled Bayesian uncertainty propagation to maintain temporal coherence. This hybrid strategy enables 5-10X speedup while retaining over 85% of the original trackers' accuracy. We evaluate K-Track across multiple state-of-the-art point trackers and demonstrate real-time performance on edge platforms such as the NVIDIA Jetson Nano and RTX Titan. By preserving accuracy while dramatically lowering computational requirements, K-Track provides a practical path toward deploying high-quality point tracking in real-world, resource-limited settings, closing the gap between modern tracking algorithms and deployable vision systems.
- Abstract(参考訳): ビデオシーケンスにおけるポイントトラッキングは、ロボット工学、自律システム、拡張現実、ビデオ分析など、現実世界のコンピュータビジョンアプリケーションの基本機能である。
最近のディープラーニングベースのトラッカーは、挑戦的なベンチマークで最先端の精度を達成する一方で、フレーム単位のGPU推論への依存は、計算、電力、接続性が制限されたリソース制約されたエッジデバイスへのデプロイメントにおいて大きな障壁となる。
K-Track(Kalman-enhanced Tracking)は、このデプロイメントギャップを埋めるために設計された、汎用的なトラッカーに依存しないアクセラレーションフレームワークである。
K-Trackは、時間的コヒーレンスを維持するために原理化されたベイズ不確実性伝搬を用いて、スパース深層学習キーフレーム更新と中間フレーム予測のための軽量カルマンフィルタを組み合わせることで、推論コストを削減する。
このハイブリッド戦略は、元のトラッカーの精度の85%を保ちながら、5-10倍のスピードアップを可能にする。
複数の最先端のポイントトラッカーにまたがるK-Trackを評価し,NVIDIA Jetson NanoやRTX Titanといったエッジプラットフォーム上でのリアルタイム性能を示す。
K-Trackは、計算要求を劇的に減らしながら精度を保ちながら精度を保ちながら、現実のリソース制限された設定で高品質なポイントトラッキングをデプロイし、現代のトラッキングアルゴリズムとデプロイ可能なビジョンシステムとのギャップを埋める実践的な方法を提供する。
関連論文リスト
- StableTrack: Stabilizing Multi-Object Tracking on Low-Frequency Detections [0.18054741274903915]
マルチオブジェクトトラッキング(MOT)はコンピュータビジョンにおいて最も困難なタスクの1つである。
現在のアプローチは主に、ビデオストリームの各フレーム内のオブジェクトを追跡することに焦点を当てている。
本稿では,低周波検出における追跡品質を安定させる新しい手法であるStableTrackを提案する。
論文 参考訳(メタデータ) (2025-11-25T15:42:33Z) - LiteTracker: Leveraging Temporal Causality for Accurate Low-latency Tissue Tracking [86.67583223579851]
LiteTrackerは、内視鏡的ビデオストリームにおける組織追跡のための低遅延手法である。
LiteTrackerは最先端の長期追跡手法に基づいており、トレーニング不要なランタイム最適化のセットを導入している。
論文 参考訳(メタデータ) (2025-04-14T05:53:57Z) - Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - Dense Optical Tracking: Connecting the Dots [82.79642869586587]
DOTは、ビデオにおけるポイントトラッキングの問題を解決するための、新しくてシンプルで効率的な方法である。
OmniMotionのような高度な"ユニバーサルトラッカー"を上回り、CoTrackerのような最良のポイントトラッキングアルゴリズムと同等か、あるいはそれ以上の精度で、DOTが現在の光フロー技術よりもはるかに正確であることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:59:59Z) - PUCK: Parallel Surface and Convolution-kernel Tracking for Event-Based
Cameras [4.110120522045467]
イベントカメラは、動的環境における高速な視覚センシングを保証できるが、ロボットのエゴモーションによって引き起こされる高いデータ速度に追従できる追跡アルゴリズムを必要とする。
本稿では,EROS(Exponential Reduced Ordinal Surface)データ表現を利用してイベント・バイ・イベント処理とトラッキングを分離する新しいトラッキング手法を提案する。
エアホッケーパックが表面を滑り落ちるのをトラッキングするタスクを提案し、将来はiCubロボットを正確に時間通りに目標に到達させることが目的である。
論文 参考訳(メタデータ) (2022-05-16T13:23:52Z) - DeepScale: An Online Frame Size Adaptation Framework to Accelerate
Visual Multi-object Tracking [8.878656943106934]
DeepScaleは、追跡スループットを高速化するモデルに依存しないフレームサイズ選択アプローチである。
フレームサイズを実行時に適応させることで、トラッキング精度と速度の適切なトレードオフを見つけることができる。
最先端のトラッカーであるDeepScale++と比較して、DeepScaleの亜種であるDeepScale++は、適度な劣化だけで1.57倍の高速化を実現している。
論文 参考訳(メタデータ) (2021-07-22T00:12:58Z) - Confidence Trigger Detection: Accelerating Real-time Tracking-by-detection Systems [1.6037469030022993]
信頼強化検出(CTD)は、中間状態によく似たフレームのオブジェクト検出を戦略的に回避する革新的な手法である。
CTDは追跡速度を向上するだけでなく、既存の追跡アルゴリズムを超越して精度も維持する。
本実験はCTDフレームワークの堅牢性と汎用性を実証し,資源制約環境におけるリアルタイムトラッキングの実現の可能性を示した。
論文 参考訳(メタデータ) (2019-02-02T01:52:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。