論文の概要: Fast and Resource-Efficient Object Tracking on Edge Devices: A
Measurement Study
- arxiv url: http://arxiv.org/abs/2309.02666v1
- Date: Wed, 6 Sep 2023 02:25:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 17:06:41.619340
- Title: Fast and Resource-Efficient Object Tracking on Edge Devices: A
Measurement Study
- Title(参考訳): エッジデバイスを用いた高速かつ資源効率の高い物体追跡:計測研究
- Authors: Sanjana Vijay Ganesh, Yanzhao Wu, Gaowen Liu, Ramana Kompella, Ling
Liu
- Abstract要約: マルチオブジェクトトラッキング(MOT)は動く物体を検出し、実際のシーンがビデオに写っているときにフレームによって位置をトラッキングする。
本稿では,オブジェクト追跡における性能問題とエッジ固有の最適化機会について検討する。
EMOと呼ばれるエッジ固有のパフォーマンス最適化戦略をいくつか提示し、リアルタイムオブジェクト追跡を高速化する。
- 参考スコア(独自算出の注目度): 9.976630547252427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object tracking is an important functionality of edge video analytic systems
and services. Multi-object tracking (MOT) detects the moving objects and tracks
their locations frame by frame as real scenes are being captured into a video.
However, it is well known that real time object tracking on the edge poses
critical technical challenges, especially with edge devices of heterogeneous
computing resources. This paper examines the performance issues and
edge-specific optimization opportunities for object tracking. We will show that
even the well trained and optimized MOT model may still suffer from random
frame dropping problems when edge devices have insufficient computation
resources. We present several edge specific performance optimization
strategies, collectively coined as EMO, to speed up the real time object
tracking, ranging from window-based optimization to similarity based
optimization. Extensive experiments on popular MOT benchmarks demonstrate that
our EMO approach is competitive with respect to the representative methods for
on-device object tracking techniques in terms of run-time performance and
tracking accuracy. EMO is released on Github at
https://github.com/git-disl/EMO.
- Abstract(参考訳): オブジェクト追跡は、エッジビデオ分析システムとサービスの重要な機能である。
マルチオブジェクトトラッキング(MOT)は動く物体を検出し、実際のシーンがビデオに写っているときにフレームによって位置をトラッキングする。
しかしながら、エッジ上のリアルタイムオブジェクトトラッキングは、特に異種コンピューティングリソースのエッジデバイスにおいて、重要な技術的課題となることはよく知られている。
本稿では,オブジェクト追跡の性能問題とエッジ特有の最適化機会について検討する。
十分に訓練され最適化されたMOTモデルでさえ、エッジデバイスが計算資源が不十分な場合にも、ランダムなフレーム降下問題に悩まされることを示します。
我々は、ウィンドウベースの最適化から類似性に基づく最適化まで、リアルタイムオブジェクト追跡を高速化するために、EMOと呼ばれるエッジ固有のパフォーマンス最適化戦略をいくつか提示する。
一般的なMOTベンチマークの大規模な実験により、私たちのEMOアプローチは、実行時の性能とトラッキング精度の観点から、デバイス上でのオブジェクト追跡技術の代表的手法と競合することを示した。
EMOはGithubでhttps://github.com/git-disl/EMOで公開されている。
関連論文リスト
- Temporal Correlation Meets Embedding: Towards a 2nd Generation of JDE-based Real-Time Multi-Object Tracking [52.04679257903805]
共同検出・埋め込み(JDE)トラッカーは多目的追跡(MOT)タスクにおいて優れた性能を示した。
TCBTrackという名前のトラッカーは、複数の公開ベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-07-19T07:48:45Z) - Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - UnsMOT: Unified Framework for Unsupervised Multi-Object Tracking with
Geometric Topology Guidance [6.577227592760559]
UnsMOTは、オブジェクトの外観と運動の特徴と幾何学的情報を組み合わせて、より正確なトラッキングを提供する新しいフレームワークである。
実験結果から, HOTA, IDF1, MOTAの計測値において, 最先端手法と比較して顕著な性能を示した。
論文 参考訳(メタデータ) (2023-09-03T04:58:12Z) - End-to-end Tracking with a Multi-query Transformer [96.13468602635082]
マルチオブジェクトトラッキング(MOT)は、時間とともにシーン内のオブジェクトの位置、外観、アイデンティティを同時に推論する必要がある課題である。
本研究の目的は、トラッキング・バイ・ディテクト・アプローチを超えて、未知のオブジェクト・クラスに対してもよく機能するクラスに依存しないトラッキングへと移行することである。
論文 参考訳(メタデータ) (2022-10-26T10:19:37Z) - Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems [93.73198973454944]
本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
論文 参考訳(メタデータ) (2021-05-21T12:40:59Z) - ApproxDet: Content and Contention-Aware Approximate Object Detection for
Mobiles [19.41234144545467]
本稿では,モバイル機器用適応型ビデオオブジェクト検出フレームワークであるApproxDetを紹介する。
大規模なベンチマークビデオデータセット上でApproxDetを評価し,AdaScaleやYOLOv3と比較した。
ApproxDetは、幅広いコンテントやコンテンツの特徴に適応し、すべてのベースラインを誇張することができる。
論文 参考訳(メタデータ) (2020-10-21T04:11:05Z) - Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking [87.0297771292994]
本稿では,イベントベースのトラッキング・バイ・ディテクト(ETD)手法を提案する。
この目的を達成するために,線形時間決定(ATSLTD)イベント・ツー・フレーム変換アルゴリズムを用いた適応時間曲面を提案する。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
論文 参考訳(メタデータ) (2020-02-13T15:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。