論文の概要: High-temporal-resolution event-based vehicle detection and tracking
- arxiv url: http://arxiv.org/abs/2212.14289v2
- Date: Mon, 2 Jan 2023 07:15:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 14:52:02.083111
- Title: High-temporal-resolution event-based vehicle detection and tracking
- Title(参考訳): 高時間分解能イベントベース車両検出と追跡
- Authors: Zaid El-Shair and Samir Rawashdeh
- Abstract要約: イベントベースのビジョンは、その高時間分解能(1us)、高ダイナミックレンジ(>120dB)、わずか数マイクロ秒の出力遅延によって、近年急速に成長している。
この研究は、最先端のフレームベースの検出器とイベントベースの手法を活用する、オブジェクト検出と追跡のためのハイブリッドでマルチモーダルなアプローチを探求する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event-based vision has been rapidly growing in recent years justified by the
unique characteristics it presents such as its high temporal resolutions
(~1us), high dynamic range (>120dB), and output latency of only a few
microseconds. This work further explores a hybrid, multi-modal, approach for
object detection and tracking that leverages state-of-the-art frame-based
detectors complemented by hand-crafted event-based methods to improve the
overall tracking performance with minimal computational overhead. The methods
presented include event-based bounding box (BB) refinement that improves the
precision of the resulting BBs, as well as a continuous event-based object
detection method, to recover missed detections and generate inter-frame
detections that enable a high-temporal-resolution tracking output. The
advantages of these methods are quantitatively verified by an ablation study
using the higher order tracking accuracy (HOTA) metric. Results show
significant performance gains resembled by an improvement in the HOTA from
56.6%, using only frames, to 64.1% and 64.9%, for the event and edge-based mask
configurations combined with the two methods proposed, at the baseline
framerate of 24Hz. Likewise, incorporating these methods with the same
configurations has improved HOTA from 52.5% to 63.1%, and from 51.3% to 60.2%
at the high-temporal-resolution tracking rate of 384Hz. Finally, a validation
experiment is conducted to analyze the real-world single-object tracking
performance using high-speed LiDAR. Empirical evidence shows that our
approaches provide significant advantages compared to using frame-based object
detectors at the baseline framerate of 24Hz and higher tracking rates of up to
500Hz.
- Abstract(参考訳): イベントベースのビジョンは近年、その高い時間分解能(~1us)、高いダイナミックレンジ(>120db)、わずか数マイクロ秒の出力レイテンシといったユニークな特徴によって、急速に成長しています。
この研究は、手作りのイベントベース手法で補完される最先端のフレームベースの検出器を活用して、計算オーバーヘッドを最小限に抑えて全体的なトラッキング性能を改善する、ハイブリッドでマルチモーダルなオブジェクト検出とトラッキングのアプローチをさらに探求する。
得られたbbsの精度を向上させるイベントベースバウンディングボックス(bb)の改良と、失敗した検出を回収し、高時間分解能トラッキングアウトプットを可能にするフレーム間検出を生成する連続イベントベースオブジェクト検出方法を含む。
これらの手法の利点は高次追跡精度(HOTA)を用いたアブレーション法により定量的に検証される。
その結果、HOTAはフレームのみを使用して56.6%から64.1%、64.9%に改善され、イベントとエッジベースのマスク構成が24Hzのベースラインフレームレートで提案された2つの手法と組み合わせられた。
同様に、これらの手法を同じ構成に組み込むことで、HOTAは52.5%から63.1%に改善され、51.3%から60.2%に改善された。
最後に,高速LiDARを用いた実世界の単一物体追跡性能の検証実験を行った。
提案手法は,24Hzの基線フレームレートと最大500Hzの追従速度でフレームベース物体検出器を使用する場合と比較して大きな利点があることを示す。
関連論文リスト
- Recurrent Vision Transformers for Object Detection with Event Cameras [62.27246562304705]
本稿では,イベントカメラを用いた物体検出のための新しいバックボーンであるリカレントビジョントランス (RVT) を提案する。
RVTは、イベントベースのオブジェクト検出で最先端のパフォーマンスに到達するために、ゼロからトレーニングすることができる。
私たちの研究は、イベントベースのビジョンを超えた研究に役立ち得る効果的なデザイン選択に、新たな洞察をもたらします。
論文 参考訳(メタデータ) (2022-12-11T20:28:59Z) - Automatic Detection of Interplanetary Coronal Mass Ejections in Solar
Wind In Situ Data [0.0]
本稿では,ICMEの自動検出のためのパイプラインを提案する。
パイプラインは,平均絶対誤差(MAE)が約2時間56分,終了時間が3時間20分であるICMEの開始点を見つける。
論文 参考訳(メタデータ) (2022-05-07T07:25:05Z) - EAutoDet: Efficient Architecture Search for Object Detection [110.99532343155073]
EAutoDetフレームワークは、1.4GPU日でオブジェクト検出のための実用的なバックボーンとFPNアーキテクチャを検出できる。
本稿では,一方のエッジ上での候補演算の重みを共有し,それらを一つの畳み込みに集約することでカーネル再利用手法を提案する。
特に、発見されたアーキテクチャは最先端のオブジェクト検出NAS法を超越し、120 FPSで40.1 mAP、49.2 mAP、41.3 FPSをCOCOテストデブセットで達成している。
論文 参考訳(メタデータ) (2022-03-21T05:56:12Z) - Recurrent Glimpse-based Decoder for Detection with Transformer [85.64521612986456]
本稿では,Recurrent Glimpse-based deoder (REGO)について紹介する。
特に、REGOは多段階のリカレント処理構造を用いて、DETRの注目が徐々に前景オブジェクトに焦点を合わせるのを助ける。
REGOは、異なるDETR検出器の性能を最大7%向上させる。
論文 参考訳(メタデータ) (2021-12-09T00:29:19Z) - Localization Uncertainty-Based Attention for Object Detection [8.154943252001848]
ガウスモデルを用いて, 4方向位置決めの不確かさを予測できる, より効率的な不確実性認識型高密度検出器 (UADET) を提案する。
MS COCOベンチマークを用いた実験によると、UADETはベースラインFCOSを一貫して上回り、最高のモデルであるResNext-64x4d-101-DCNは、COCOテストデーブで48.3%の単一スケールAPを得る。
論文 参考訳(メタデータ) (2021-08-25T04:32:39Z) - Localization-Based Tracking [0.45687771576879593]
我々は、検出または共同検出および追跡パラダイムによる追跡に従う任意のトラッカーの拡張を提示します。
UA-DETRACデータセットとMOT20データセットの2つの例トラッカー(KIOUとSORT)の拡張としてLBTを評価した。
提出時点では、我々のLBT拡張KIOUトラッカーはMOT20ベンチマークで10位となっている。
論文 参考訳(メタデータ) (2021-04-12T21:13:55Z) - A Unified Light Framework for Real-time Fault Detection of Freight Train
Images [16.721758280029302]
貨物列車のリアルタイム故障検出は、鉄道輸送の安全と最適運転を保証する上で重要な役割を担っている。
深層学習に基づくアプローチの有望な結果にもかかわらず、貨物列車画像におけるこれらの断層検出器の性能は精度と効率の両立には程遠い。
本稿では,リソース要求の少ないリアルタイム動作をサポートしながら,検出精度を向上させるための統一光フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-31T05:10:20Z) - Alpha-Refine: Boosting Tracking Performance by Precise Bounding Box
Estimation [85.22775182688798]
この研究はAlpha-Refineと呼ばれる新しい、柔軟で正確な改良モジュールを提案する。
これにより、ベーストラッカーのボックス推定品質が大幅に向上する。
TrackingNet, LaSOT, GOT-10K, VOT 2020 ベンチマークの実験では,我々のアプローチがベーストラッカのパフォーマンスを大幅に改善し,遅延がほとんどなかった。
論文 参考訳(メタデータ) (2020-12-12T13:33:25Z) - Towards Robust Visual Tracking for Unmanned Aerial Vehicle with
Tri-Attentional Correlation Filters [19.831557268085234]
マルチレベルの視覚的注意を生かした新しいオブジェクト追跡フレームワークを提案する。
提案トラッカーは,UAVタスクにおける高い運用効率を維持しつつ,困難な要因に対する堅牢な相関力を備えている。
論文 参考訳(メタデータ) (2020-08-02T17:36:25Z) - SADet: Learning An Efficient and Accurate Pedestrian Detector [68.66857832440897]
本稿では,一段検出器の検出パイプラインに対する一連の最適化手法を提案する。
効率的な歩行者検出のための単発アンカーベース検出器(SADet)を形成する。
構造的には単純だが、VGA解像度の画像に対して最先端の結果と20ドルFPSのリアルタイム速度を示す。
論文 参考訳(メタデータ) (2020-07-26T12:32:38Z) - Tracking Objects as Points [83.9217787335878]
同時に検出と追跡を同時に行うアルゴリズムは,最先端技術よりもシンプルで,高速で,高精度である。
トラッカーであるCenterTrackは、前のフレームから一対のイメージと検出に検出モデルを適用します。
CenterTrackはシンプルで、オンライン(未来を覗くことはない)で、リアルタイムだ。
論文 参考訳(メタデータ) (2020-04-02T17:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。