論文の概要: Motion Robust High-Speed Light-Weighted Object Detection With Event
Camera
- arxiv url: http://arxiv.org/abs/2208.11602v2
- Date: Mon, 26 Jun 2023 01:18:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 00:57:37.228572
- Title: Motion Robust High-Speed Light-Weighted Object Detection With Event
Camera
- Title(参考訳): イベントカメラを用いた高速軽量物体検出の動作ロバスト化
- Authors: Bingde Liu, Chang Xu, Wen Yang, Huai Yu, Lei Yu
- Abstract要約: イベントデータをよりよく活用する動き堅牢で高速な検出パイプラインを提案する。
2つの典型的な実景イベントカメラオブジェクト検出データセットの実験により,本手法は精度,効率,パラメータ数において競合することを示した。
- 参考スコア(独自算出の注目度): 24.192961837270172
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose a motion robust and high-speed detection pipeline
which better leverages the event data. First, we design an event stream
representation called temporal active focus (TAF), which efficiently utilizes
the spatial-temporal asynchronous event stream, constructing event tensors
robust to object motions. Then, we propose a module called the bifurcated
folding module (BFM), which encodes the rich temporal information in the TAF
tensor at the input layer of the detector. Following this, we design a
high-speed lightweight detector called agile event detector (AED) plus a simple
but effective data augmentation method, to enhance the detection accuracy and
reduce the model's parameter. Experiments on two typical real-scene event
camera object detection datasets show that our method is competitive in terms
of accuracy, efficiency, and the number of parameters. By classifying objects
into multiple motion levels based on the optical flow density metric, we
further illustrated the robustness of our method for objects with different
velocities relative to the camera. The codes and trained models are available
at https://github.com/HarmoniaLeo/FRLW-EvD .
- Abstract(参考訳): 本研究では,イベントデータをよりよく活用する動き頑健かつ高速な検出パイプラインを提案する。
まず,空間-時間非同期イベントストリームを効率的に活用し,オブジェクトの動きに頑健なイベントテンソルを構築する,temporal active focus(taf)と呼ばれるイベントストリーム表現を設計する。
次に,2層折り畳みモジュール (BFM) と呼ばれるモジュールを提案し,このモジュールは検出器の入力層におけるTAFテンソルの豊富な時間情報を符号化する。
これに続いて,agile event detector (aed) と呼ばれる高速軽量検出器と,簡易かつ効果的なデータ拡張手法を設計し,検出精度を高め,モデルのパラメータを低減した。
2つの典型的な実景イベントカメラオブジェクト検出データセットの実験により,本手法は精度,効率,パラメータ数において競合することを示した。
光流密度測定に基づいて物体を複数の運動レベルに分類することにより,カメラに対して速度の異なる物体に対してロバスト性を示す。
コードとトレーニングされたモデルはhttps://github.com/harmonialeo/frlw-evdで入手できる。
関連論文リスト
- Motion Segmentation for Neuromorphic Aerial Surveillance [42.04157319642197]
イベントカメラは優れた時間分解能、優れたダイナミックレンジ、最小限の電力要件を提供する。
固定間隔で冗長な情報をキャプチャする従来のフレームベースのセンサーとは異なり、イベントカメラは画素レベルの明るさ変化を非同期に記録する。
本稿では,イベントデータと光フロー情報の両方に自己監督型視覚変換器を利用する動き分割手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T04:36:13Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - FOLT: Fast Multiple Object Tracking from UAV-captured Videos Based on
Optical Flow [27.621524657473945]
複数物体追跡(MOT)はコンピュータビジョンにおいてよく研究されている。
しかし、無人航空機(UAV)が撮影したビデオのMOTは、小さな物体の大きさ、ぼやけた物体の外観、そして非常に大きくて不規則な動きのために依然として困難である。
我々はこれらの問題を緩和し、UAVビューで高速かつ正確なMOTに到達するためにFOLTを提案する。
論文 参考訳(メタデータ) (2023-08-14T15:24:44Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - Motion-aware Memory Network for Fast Video Salient Object Detection [15.967509480432266]
我々は、隣接するフレームから現在のフレームの有用な時間情報をVSODの時間枝として抽出する時空間メモリ(STM)ベースのネットワークを設計する。
符号化段階では、電流とその隣接するフレームから高次特徴を用いて高次時間特徴を生成する。
復号化段階では,空間的および時間的分岐に対する効果的な融合戦略を提案する。
提案モデルでは,光学フローなどの前処理を必要とせず,推定時に100FPS近い速度に達することができる。
論文 参考訳(メタデータ) (2022-08-01T15:56:19Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - VisEvent: Reliable Object Tracking via Collaboration of Frame and Event
Flows [93.54888104118822]
このタスクには現実的でスケールしたデータセットがないため、大規模なVisible-Eventベンチマーク(VisEventと呼ぶ)を提案する。
私たちのデータセットは、低照度、高速、背景乱雑なシナリオ下でキャプチャされた820のビデオペアで構成されています。
VisEventに基づいて、イベントフローをイベントイメージに変換し、30以上のベースラインメソッドを構築します。
論文 参考訳(メタデータ) (2021-08-11T03:55:12Z) - Tracking 6-DoF Object Motion from Events and Frames [0.0]
本研究では,6自由度(6-DoF)物体の動き追跡のための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-03-29T12:39:38Z) - Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking [87.0297771292994]
本稿では,イベントベースのトラッキング・バイ・ディテクト(ETD)手法を提案する。
この目的を達成するために,線形時間決定(ATSLTD)イベント・ツー・フレーム変換アルゴリズムを用いた適応時間曲面を提案する。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
論文 参考訳(メタデータ) (2020-02-13T15:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。