論文の概要: High-temporal-resolution event-based vehicle detection and tracking
- arxiv url: http://arxiv.org/abs/2212.14289v2
- Date: Mon, 2 Jan 2023 07:15:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 14:52:02.083111
- Title: High-temporal-resolution event-based vehicle detection and tracking
- Title(参考訳): 高時間分解能イベントベース車両検出と追跡
- Authors: Zaid El-Shair and Samir Rawashdeh
- Abstract要約: イベントベースのビジョンは、その高時間分解能(1us)、高ダイナミックレンジ(>120dB)、わずか数マイクロ秒の出力遅延によって、近年急速に成長している。
この研究は、最先端のフレームベースの検出器とイベントベースの手法を活用する、オブジェクト検出と追跡のためのハイブリッドでマルチモーダルなアプローチを探求する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event-based vision has been rapidly growing in recent years justified by the
unique characteristics it presents such as its high temporal resolutions
(~1us), high dynamic range (>120dB), and output latency of only a few
microseconds. This work further explores a hybrid, multi-modal, approach for
object detection and tracking that leverages state-of-the-art frame-based
detectors complemented by hand-crafted event-based methods to improve the
overall tracking performance with minimal computational overhead. The methods
presented include event-based bounding box (BB) refinement that improves the
precision of the resulting BBs, as well as a continuous event-based object
detection method, to recover missed detections and generate inter-frame
detections that enable a high-temporal-resolution tracking output. The
advantages of these methods are quantitatively verified by an ablation study
using the higher order tracking accuracy (HOTA) metric. Results show
significant performance gains resembled by an improvement in the HOTA from
56.6%, using only frames, to 64.1% and 64.9%, for the event and edge-based mask
configurations combined with the two methods proposed, at the baseline
framerate of 24Hz. Likewise, incorporating these methods with the same
configurations has improved HOTA from 52.5% to 63.1%, and from 51.3% to 60.2%
at the high-temporal-resolution tracking rate of 384Hz. Finally, a validation
experiment is conducted to analyze the real-world single-object tracking
performance using high-speed LiDAR. Empirical evidence shows that our
approaches provide significant advantages compared to using frame-based object
detectors at the baseline framerate of 24Hz and higher tracking rates of up to
500Hz.
- Abstract(参考訳): イベントベースのビジョンは近年、その高い時間分解能(~1us)、高いダイナミックレンジ(>120db)、わずか数マイクロ秒の出力レイテンシといったユニークな特徴によって、急速に成長しています。
この研究は、手作りのイベントベース手法で補完される最先端のフレームベースの検出器を活用して、計算オーバーヘッドを最小限に抑えて全体的なトラッキング性能を改善する、ハイブリッドでマルチモーダルなオブジェクト検出とトラッキングのアプローチをさらに探求する。
得られたbbsの精度を向上させるイベントベースバウンディングボックス(bb)の改良と、失敗した検出を回収し、高時間分解能トラッキングアウトプットを可能にするフレーム間検出を生成する連続イベントベースオブジェクト検出方法を含む。
これらの手法の利点は高次追跡精度(HOTA)を用いたアブレーション法により定量的に検証される。
その結果、HOTAはフレームのみを使用して56.6%から64.1%、64.9%に改善され、イベントとエッジベースのマスク構成が24Hzのベースラインフレームレートで提案された2つの手法と組み合わせられた。
同様に、これらの手法を同じ構成に組み込むことで、HOTAは52.5%から63.1%に改善され、51.3%から60.2%に改善された。
最後に,高速LiDARを用いた実世界の単一物体追跡性能の検証実験を行った。
提案手法は,24Hzの基線フレームレートと最大500Hzの追従速度でフレームベース物体検出器を使用する場合と比較して大きな利点があることを示す。
関連論文リスト
- KAN-RCBEVDepth: A multi-modal fusion algorithm in object detection for autonomous driving [2.382388777981433]
本稿では, 自律走行における3次元物体検出の高速化を目的としたkan-RCBEVDepth法を提案する。
我々のユニークなBird’s Eye Viewベースのアプローチは、検出精度と効率を大幅に改善します。
コードはurlhttps://www.laitiamo.com/laitiamo/RCBEVDepth-KANでリリースされる。
論文 参考訳(メタデータ) (2024-08-04T16:54:49Z) - DailyDVS-200: A Comprehensive Benchmark Dataset for Event-Based Action Recognition [51.96660522869841]
DailyDVS-200は、イベントベースのアクション認識コミュニティに適したベンチマークデータセットである。
実世界のシナリオで200のアクションカテゴリをカバーし、47人の参加者によって記録され、22,000以上のイベントシーケンスで構成されている。
DailyDVS-200には14の属性がアノテートされており、記録されたアクションの詳細なキャラクタリゼーションが保証されている。
論文 参考訳(メタデータ) (2024-07-06T15:25:10Z) - Dim Small Target Detection and Tracking: A Novel Method Based on Temporal Energy Selective Scaling and Trajectory Association [8.269449428849867]
本稿では,有効検出を実現するための時間的特徴に基づく空間的特徴と実現可能性に基づく難易度の分析を行う。
この分析により,マルチフレームを検出単位とし,時間的エネルギー選択スケーリング(TESS)に基づく検出手法を提案する。
対象画素に対して、画素を通過するターゲットは、画素によって形成される強度時間プロファイル(ITP)に弱い過渡的障害をもたらす。
適切に設計された関数を用いて、過渡的障害を増幅し、背景成分と雑音成分を抑圧し、ターゲットの軌道を多フレーム検出ユニットに出力する。
論文 参考訳(メタデータ) (2024-05-15T03:02:21Z) - SFSORT: Scene Features-based Simple Online Real-Time Tracker [0.0]
本稿では,MOTチャレンジデータセットを用いた実験に基づいて,世界最速の多対象追跡システムであるSFSORTを紹介する。
バウンディングボックス類似度指数(英語版)と呼ばれる新しいコスト関数を導入することにより、この研究はカルマンフィルタを排除し、計算要求を減らした。
提案手法は,MOT17データセットで処理速度2242HzのHOTAを61.7%,MOT20データセットで処理速度304HzのHOTAを60.9%とする。
論文 参考訳(メタデータ) (2024-04-11T08:35:24Z) - Recurrent Vision Transformers for Object Detection with Event Cameras [62.27246562304705]
本稿では,イベントカメラを用いた物体検出のための新しいバックボーンであるリカレントビジョントランス (RVT) を提案する。
RVTは、イベントベースのオブジェクト検出で最先端のパフォーマンスに到達するために、ゼロからトレーニングすることができる。
私たちの研究は、イベントベースのビジョンを超えた研究に役立ち得る効果的なデザイン選択に、新たな洞察をもたらします。
論文 参考訳(メタデータ) (2022-12-11T20:28:59Z) - Automatic Detection of Interplanetary Coronal Mass Ejections in Solar
Wind In Situ Data [0.0]
本稿では,ICMEの自動検出のためのパイプラインを提案する。
パイプラインは,平均絶対誤差(MAE)が約2時間56分,終了時間が3時間20分であるICMEの開始点を見つける。
論文 参考訳(メタデータ) (2022-05-07T07:25:05Z) - Recurrent Glimpse-based Decoder for Detection with Transformer [85.64521612986456]
本稿では,Recurrent Glimpse-based deoder (REGO)について紹介する。
特に、REGOは多段階のリカレント処理構造を用いて、DETRの注目が徐々に前景オブジェクトに焦点を合わせるのを助ける。
REGOは、異なるDETR検出器の性能を最大7%向上させる。
論文 参考訳(メタデータ) (2021-12-09T00:29:19Z) - Alpha-Refine: Boosting Tracking Performance by Precise Bounding Box
Estimation [85.22775182688798]
この研究はAlpha-Refineと呼ばれる新しい、柔軟で正確な改良モジュールを提案する。
これにより、ベーストラッカーのボックス推定品質が大幅に向上する。
TrackingNet, LaSOT, GOT-10K, VOT 2020 ベンチマークの実験では,我々のアプローチがベーストラッカのパフォーマンスを大幅に改善し,遅延がほとんどなかった。
論文 参考訳(メタデータ) (2020-12-12T13:33:25Z) - Towards Robust Visual Tracking for Unmanned Aerial Vehicle with
Tri-Attentional Correlation Filters [19.831557268085234]
マルチレベルの視覚的注意を生かした新しいオブジェクト追跡フレームワークを提案する。
提案トラッカーは,UAVタスクにおける高い運用効率を維持しつつ,困難な要因に対する堅牢な相関力を備えている。
論文 参考訳(メタデータ) (2020-08-02T17:36:25Z) - SADet: Learning An Efficient and Accurate Pedestrian Detector [68.66857832440897]
本稿では,一段検出器の検出パイプラインに対する一連の最適化手法を提案する。
効率的な歩行者検出のための単発アンカーベース検出器(SADet)を形成する。
構造的には単純だが、VGA解像度の画像に対して最先端の結果と20ドルFPSのリアルタイム速度を示す。
論文 参考訳(メタデータ) (2020-07-26T12:32:38Z) - Tracking Objects as Points [83.9217787335878]
同時に検出と追跡を同時に行うアルゴリズムは,最先端技術よりもシンプルで,高速で,高精度である。
トラッカーであるCenterTrackは、前のフレームから一対のイメージと検出に検出モデルを適用します。
CenterTrackはシンプルで、オンライン(未来を覗くことはない)で、リアルタイムだ。
論文 参考訳(メタデータ) (2020-04-02T17:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。