論文の概要: HopTrack: A Real-time Multi-Object Tracking System for Embedded Devices
- arxiv url: http://arxiv.org/abs/2411.00608v1
- Date: Fri, 01 Nov 2024 14:13:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:40:15.113449
- Title: HopTrack: A Real-time Multi-Object Tracking System for Embedded Devices
- Title(参考訳): HopTrack: 組み込みデバイスのためのリアルタイムマルチオブジェクトトラッキングシステム
- Authors: Xiang Li, Cheng Chen, Yuan-yao Lou, Mustafa Abdallah, Kwang Taik Kim, Saurabh Bagchi,
- Abstract要約: 本稿では,組み込みデバイスに適したリアルタイムマルチオブジェクトトラッキングシステムHopTrackを紹介する。
最高のハイエンドGPU修正ベースラインByte(Embed)と比較して、HopTrackはNVIDIA AGX Xavierで最大39.29の処理速度を実現している。
- 参考スコア(独自算出の注目度): 11.615446679072932
- License:
- Abstract: Multi-Object Tracking (MOT) poses significant challenges in computer vision. Despite its wide application in robotics, autonomous driving, and smart manufacturing, there is limited literature addressing the specific challenges of running MOT on embedded devices. State-of-the-art MOT trackers designed for high-end GPUs often experience low processing rates (<11fps) when deployed on embedded devices. Existing MOT frameworks for embedded devices proposed strategies such as fusing the detector model with the feature embedding model to reduce inference latency or combining different trackers to improve tracking accuracy, but tend to compromise one for the other. This paper introduces HopTrack, a real-time multi-object tracking system tailored for embedded devices. Our system employs a novel discretized static and dynamic matching approach along with an innovative content-aware dynamic sampling technique to enhance tracking accuracy while meeting the real-time requirement. Compared with the best high-end GPU modified baseline Byte (Embed) and the best existing baseline on embedded devices MobileNet-JDE, HopTrack achieves a processing speed of up to 39.29 fps on NVIDIA AGX Xavier with a multi-object tracking accuracy (MOTA) of up to 63.12% on the MOT16 benchmark, outperforming both counterparts by 2.15% and 4.82%, respectively. Additionally, the accuracy improvement is coupled with the reduction in energy consumption (20.8%), power (5%), and memory usage (8%), which are crucial resources on embedded devices. HopTrack is also detector agnostic allowing the flexibility of plug-and-play.
- Abstract(参考訳): マルチオブジェクト追跡(MOT)はコンピュータビジョンにおいて大きな課題となる。
ロボット工学、自動運転、スマートマニュファクチャリングに広く応用されているにもかかわらず、組み込みデバイス上でMOTを実行するという特定の課題に対処する文献は限られている。
ハイエンドGPU用に設計された最先端のMOTトラッカーは、組み込みデバイスにデプロイする際の処理速度が低い(<11fps)。
既存の組み込みデバイス用MOTフレームワークでは、推論遅延を減らすために検出モデルを機能埋め込みモデルと融合させる、トラッキング精度を改善するために異なるトラッカーを組み合わせるといった戦略が提案されているが、他方では妥協する傾向がある。
本稿では,組み込みデバイスに適したリアルタイムマルチオブジェクトトラッキングシステムHopTrackを紹介する。
本システムでは,リアルタイム要件を満たしながらトラッキング精度を向上させるために,新しい離散化静的および動的マッチング手法と,革新的なコンテンツ認識動的サンプリング手法を用いている。
最高のハイエンドGPU修正ベースラインByte(Embed)と組み込みデバイスで最高のベースラインであるMobileNet-JDEと比較して、HopTrackはNVIDIA AGX Xavierで最大39.29fpsの処理速度を達成し、MOT16ベンチマークで最大63.12%のマルチオブジェクト追跡精度(MOTA)を達成し、それぞれ2.15%と4.82%を上回った。
さらに、精度の向上は、組み込みデバイス上で重要なリソースであるエネルギー消費の削減(20.8%)、電力(5%)、メモリ使用量(8%)と組み合わせられる。
HopTrackは、プラグ・アンド・プレイの柔軟性を検知する機能も備えている。
関連論文リスト
- MCTrack: A Unified 3D Multi-Object Tracking Framework for Autonomous Driving [10.399817864597347]
本稿では,KITTI, nuScenes, データセット間でのSOTA(State-of-the-art)性能を実現する3Dマルチオブジェクトトラッキング手法であるMCTrackを紹介する。
論文 参考訳(メタデータ) (2024-09-23T11:26:01Z) - LITE: A Paradigm Shift in Multi-Object Tracking with Efficient ReID Feature Integration [0.3277163122167433]
マルチオブジェクト追跡(MOT)手法として,軽量な統合的追跡機能抽出パラダイムが導入された。
推論、前処理、後処理、ReIDモデルのトレーニングコストを削減して、ReIDベースのトラッカーを強化する。
論文 参考訳(メタデータ) (2024-09-06T11:05:12Z) - Temporal Correlation Meets Embedding: Towards a 2nd Generation of JDE-based Real-Time Multi-Object Tracking [52.04679257903805]
共同検出・埋め込み(JDE)トラッカーは多目的追跡(MOT)タスクにおいて優れた性能を示した。
TCBTrackという名前のトラッカーは、複数の公開ベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-07-19T07:48:45Z) - Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - PNAS-MOT: Multi-Modal Object Tracking with Pareto Neural Architecture Search [64.28335667655129]
複数の物体追跡は、自律運転において重要な課題である。
トラッキングの精度が向上するにつれて、ニューラルネットワークはますます複雑になり、レイテンシが高いため、実際の運転シナリオにおける実践的な応用に課題が生じる。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法を用いて追跡のための効率的なアーキテクチャを探索し,比較的高い精度を維持しつつ,低リアルタイム遅延を実現することを目的とした。
論文 参考訳(メタデータ) (2024-03-23T04:18:49Z) - ByteTrackV2: 2D and 3D Multi-Object Tracking by Associating Every
Detection Box [81.45219802386444]
マルチオブジェクトトラッキング(MOT)は、ビデオフレーム間のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
低スコア検出ボックス内の真のオブジェクトをマイニングするための階層型データアソシエーション戦略を提案する。
3次元のシナリオでは、トラッカーが世界座標の物体速度を予測するのがずっと簡単である。
論文 参考訳(メタデータ) (2023-03-27T15:35:21Z) - SMILEtrack: SiMIlarity LEarning for Occlusion-Aware Multiple Object
Tracking [20.286114226299237]
本稿では,SLM(Siamese Network-based similarity Learning Module)を用いたオブジェクトトラッカーSMILEtrackを紹介する。
SLMは2つのオブジェクト間の外観類似性を計算し、分離検出および埋め込みモデルにおける特徴記述子の制限を克服する。
第2に、連続するビデオフレーム間の堅牢なオブジェクトマッチングのための新しいGATE関数を備えた類似マッチングカスケード(SMC)モジュールを開発する。
論文 参考訳(メタデータ) (2022-11-16T10:49:48Z) - MAPLE-Edge: A Runtime Latency Predictor for Edge Devices [80.01591186546793]
汎用ハードウェアの最先端遅延予測器であるMAPLEのエッジデバイス指向拡張であるMAPLE-Edgeを提案する。
MAPLEと比較して、MAPLE-Edgeはより小さなCPUパフォーマンスカウンタを使用して、ランタイムとターゲットデバイスプラットフォームを記述することができる。
また、共通ランタイムを共有するデバイスプール上でトレーニングを行うMAPLEとは異なり、MAPLE-Edgeは実行時に効果的に一般化できることを示す。
論文 参考訳(メタデータ) (2022-04-27T14:00:48Z) - DeepScale: An Online Frame Size Adaptation Framework to Accelerate
Visual Multi-object Tracking [8.878656943106934]
DeepScaleは、追跡スループットを高速化するモデルに依存しないフレームサイズ選択アプローチである。
フレームサイズを実行時に適応させることで、トラッキング精度と速度の適切なトレードオフを見つけることができる。
最先端のトラッカーであるDeepScale++と比較して、DeepScaleの亜種であるDeepScale++は、適度な劣化だけで1.57倍の高速化を実現している。
論文 参考訳(メタデータ) (2021-07-22T00:12:58Z) - Simultaneous Detection and Tracking with Motion Modelling for Multiple
Object Tracking [94.24393546459424]
本稿では,複数の物体の運動パラメータを推定し,共同検出と関連付けを行うディープ・モーション・モデリング・ネットワーク(DMM-Net)を提案する。
DMM-Netは、人気の高いUA-DETRACチャレンジで12.80 @120+ fpsのPR-MOTAスコアを達成した。
また,車両追跡のための大規模な公開データセットOmni-MOTを合成し,精密な接地トルースアノテーションを提供する。
論文 参考訳(メタデータ) (2020-08-20T08:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。