論文の概要: Traffic Sign Detection With Event Cameras and DCNN
- arxiv url: http://arxiv.org/abs/2207.13345v1
- Date: Wed, 27 Jul 2022 08:01:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 14:00:53.684206
- Title: Traffic Sign Detection With Event Cameras and DCNN
- Title(参考訳): イベントカメラとDCNNによる交通信号検出
- Authors: Piotr Wzorek and Tomasz Kryjak
- Abstract要約: イベントカメラ(DVS)は、従来のカメラの代替またはサプリメントとして視覚システムで使用されている。
本研究では,これらのセンサが,交通標識検出の一般的な課題に応用できるかどうかを検証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, event cameras (DVS - Dynamic Vision Sensors) have been used
in vision systems as an alternative or supplement to traditional cameras. They
are characterised by high dynamic range, high temporal resolution, low latency,
and reliable performance in limited lighting conditions -- parameters that are
particularly important in the context of advanced driver assistance systems
(ADAS) and self-driving cars. In this work, we test whether these rather novel
sensors can be applied to the popular task of traffic sign detection. To this
end, we analyse different representations of the event data: event frame, event
frequency, and the exponentially decaying time surface, and apply video frame
reconstruction using a deep neural network called FireNet. We use the deep
convolutional neural network YOLOv4 as a detector. For particular
representations, we obtain a detection accuracy in the range of 86.9-88.9%
mAP@0.5. The use of a fusion of the considered representations allows us to
obtain a detector with higher accuracy of 89.9% mAP@0.5. In comparison, the
detector for the frames reconstructed with FireNet is characterised by an
accuracy of 72.67% mAP@0.5. The results obtained illustrate the potential of
event cameras in automotive applications, either as standalone sensors or in
close cooperation with typical frame-based cameras.
- Abstract(参考訳): 近年では、イベントカメラ(DVS - Dynamic Vision Sensors)が、従来のカメラの代替または補助手段として視覚システムに使われている。
それらは高ダイナミックレンジ、高時間分解能、低レイテンシ、限られた照明条件における信頼性の高い性能で特徴付けられ、特に先進運転支援システム(ADAS)や自動運転車の文脈において重要なパラメータである。
本研究では,これらのセンサが交通標識検出の一般的な課題に適用できるかどうかを検証する。
この目的のために,イベントフレーム,イベント周波数,指数的に減衰する時間面といったイベントデータの異なる表現を分析し,firenetと呼ばれるディープニューラルネットワークを用いたビデオフレーム再構成を適用する。
深層畳み込みニューラルネットワーク YOLOv4 を検出器として使用する。
具体的には、86.9-88.9% map@0.5の範囲で検出精度を得る。
検討された表現の融合を用いることで、89.9% mAP@0.5の精度で検出器を得ることができる。
対照的に、ファイアネットで再構築されたフレームの検出器は72.67% mAP@0.5の精度で特徴付けられる。
その結果,自動車用センサや一般的なフレームベースのカメラとの密接な連携など,自動車用イベントカメラの可能性が示された。
関連論文リスト
- Resource-Efficient Gesture Recognition using Low-Resolution Thermal
Camera via Spiking Neural Networks and Sparse Segmentation [1.7758299835471887]
本研究は,安価で低解像度(24×32)熱センサを用いた手動作認識のための新しいアプローチを提案する。
標準のRGBカメラと比較して、提案システムは照明のバリエーションに敏感である。
本稿では,最近提案されたモノスタブル・マルチバイブレータ(MMV)ニューラルネットワークを新しいSNNのクラスとして革新的に利用することで,メモリと計算の複雑さが1桁以上小さくなることを示す。
論文 参考訳(メタデータ) (2024-01-12T13:20:01Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - EventTransAct: A video transformer-based framework for Event-camera
based action recognition [52.537021302246664]
イベントカメラは、RGBビデオの標準アクション認識と比較して、新しい機会を提供する。
本研究では,最初にイベントフレーム当たりの空間埋め込みを取得するビデオトランスフォーマーネットワーク(VTN)という,計算効率のよいモデルを用いる。
イベントデータのスパースできめ細かい性質にVTNをよりよく採用するために、イベントコントラストロス(mathcalL_EC$)とイベント固有の拡張を設計する。
論文 参考訳(メタデータ) (2023-08-25T23:51:07Z) - Neuromorphic Seatbelt State Detection for In-Cabin Monitoring with Event
Cameras [0.932065750652415]
本研究は,シートベルト状態検出を含むイベントベースDMS技術を拡張するための概念実証を提供する。
二つの分類課題において, 実検体と実検体でF1スコアが0.989, 0.944と同定された。
論文 参考訳(メタデータ) (2023-08-15T14:27:46Z) - A Quality Index Metric and Method for Online Self-Assessment of
Autonomous Vehicles Sensory Perception [164.93739293097605]
本稿では,検出品質指標(DQI)と呼ばれる新しい評価指標を提案し,カメラを用いた物体検出アルゴリズムの性能を評価する。
我々は,提案したDQI評価指標を予測するために,原画像画素とスーパーピクセルを入力として利用するスーパーピクセルベースのアテンションネットワーク(SPA-NET)を開発した。
論文 参考訳(メタデータ) (2022-03-04T22:16:50Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - Fusion-FlowNet: Energy-Efficient Optical Flow Estimation using Sensor
Fusion and Deep Fused Spiking-Analog Network Architectures [7.565038387344594]
本稿では,フレームベースとイベントベースの両方のセンサを用いたエネルギー効率の高い光フロー推定のためのセンサ融合フレームワークを提案する。
我々のネットワークは、高価なビデオアノテーションを避けるために教師なし学習を用いてエンドツーエンドで訓練されている。
論文 参考訳(メタデータ) (2021-03-19T02:03:33Z) - Combining Events and Frames using Recurrent Asynchronous Multimodal
Networks for Monocular Depth Prediction [51.072733683919246]
複数のセンサからの非同期および不規則なデータを処理するために、リカレント非同期マルチモーダル(RAM)ネットワークを導入する。
従来のRNNにインスパイアされたRAMネットワークは、非同期に更新され、予測を生成するためにいつでもクエリできる隠れ状態を維持している。
平均深度絶対誤差において,最先端手法を最大30%改善することを示す。
論文 参考訳(メタデータ) (2021-02-18T13:24:35Z) - RODNet: A Real-Time Radar Object Detection Network Cross-Supervised by
Camera-Radar Fused Object 3D Localization [30.42848269877982]
本稿では,カメラレーダ融合アルゴリズムによって相互に監視される深層レーダ物体検出ネットワーク RODNet を提案する。
提案したRDDNetは、レーダフィールド・オブ・ビュー(FoV)におけるオブジェクトの可能性を予測するための入力として、RF画像のシーケンスを用いる。
集中的な実験により,提案手法は平均精度86%,オブジェクト検出性能88%を達成した。
論文 参考訳(メタデータ) (2021-02-09T22:01:55Z) - Real-Time Face & Eye Tracking and Blink Detection using Event Cameras [3.842206880015537]
イベントカメラには、各ピクセルの局所的な光強度の変化を捉え、非同期イベントのストリームを生成する、新しいニューロモルフィックな視覚センサが含まれている。
ドライバー監視システム(英: Driver monitoring system、DMS)は、ドライバーの身体的および認知状態を感知し理解するために設計されたキャビン内の安全システムである。
本稿では,運転者監視のための顔と視線を同時に検出・追跡する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-16T10:02:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。