論文の概要: Autobiasing Event Cameras
- arxiv url: http://arxiv.org/abs/2411.00729v1
- Date: Fri, 01 Nov 2024 16:41:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:40:12.829631
- Title: Autobiasing Event Cameras
- Title(参考訳): オートバイアスイベントカメラ
- Authors: Mehdi Sefidgar Dilmaghani, Waseem Shariff, Cian Ryan, Joseph Lemley, Peter Corcoran,
- Abstract要約: 本稿では,運転監視システムのニューロモルフィックYOLOベースの顔追跡モジュールをイベントベース研究への応用として活用する。
提案手法は,リアルタイムにイベントベースアプリケーションの性能を継続的に監視するために,数値メトリクスを用いる。
バイアス最適化の利点は、追加のハードウェアやソフトウェアを必要とせずに、点滅や暗黒といった条件を処理できることにある。
- 参考スコア(独自算出の注目度): 0.932065750652415
- License:
- Abstract: This paper presents an autonomous method to address challenges arising from severe lighting conditions in machine vision applications that use event cameras. To manage these conditions, the research explores the built in potential of these cameras to adjust pixel functionality, named bias settings. As cars are driven at various times and locations, shifts in lighting conditions are unavoidable. Consequently, this paper utilizes the neuromorphic YOLO-based face tracking module of a driver monitoring system as the event-based application to study. The proposed method uses numerical metrics to continuously monitor the performance of the event-based application in real-time. When the application malfunctions, the system detects this through a drop in the metrics and automatically adjusts the event cameras bias values. The Nelder-Mead simplex algorithm is employed to optimize this adjustment, with finetuning continuing until performance returns to a satisfactory level. The advantage of bias optimization lies in its ability to handle conditions such as flickering or darkness without requiring additional hardware or software. To demonstrate the capabilities of the proposed system, it was tested under conditions where detecting human faces with default bias values was impossible. These severe conditions were simulated using dim ambient light and various flickering frequencies. Following the automatic and dynamic process of bias modification, the metrics for face detection significantly improved under all conditions. Autobiasing resulted in an increase in the YOLO confidence indicators by more than 33 percent for object detection and 37 percent for face detection highlighting the effectiveness of the proposed method.
- Abstract(参考訳): 本稿では,イベントカメラを用いたマシンビジョンアプリケーションにおいて,厳しい照明条件から生じる課題に対処する自律的手法を提案する。
これらの条件を管理するために、この研究は、これらのカメラのビルトインの可能性を探り、バイアス設定と呼ばれるピクセルの機能を調整した。
車両は様々な時間や場所で運転されるため、照明条件の変化は避けられない。
そこで本研究では,ドライバ監視システムのニューロモルフィックYOLOベースの顔追跡モジュールをイベントベースアプリケーションとして利用した。
提案手法は,リアルタイムにイベントベースアプリケーションの性能を継続的に監視するために,数値メトリクスを用いる。
アプリケーションが故障した場合、システムはメトリクスのドロップを通じてこれを検知し、イベントカメラのバイアス値を自動的に調整する。
Nelder-Mead の単純なアルゴリズムはこの調整を最適化するために使われ、性能が満足のいくレベルに戻るまで微調整を継続する。
バイアス最適化の利点は、追加のハードウェアやソフトウェアを必要とせずに、点滅や暗黒といった条件を処理できることにある。
提案システムの性能を実証するために,デフォルトバイアス値による人間の顔検出が不可能な条件下で試験を行った。
これらの厳しい条件は、薄暗い環境光と様々な点滅周波数を用いてシミュレートされた。
偏差修正の自動化および動的プロセスの後, 顔検出の指標は全条件で有意に改善した。
自動バイアスは、オブジェクト検出の33%以上、顔検出の37%以上、提案手法の有効性を浮き彫りにした。
関連論文リスト
- Enhancing Visual Place Recognition via Fast and Slow Adaptive Biasing in Event Cameras [18.348497200655746]
イベントカメラは、低レイテンシ、エネルギー効率、高ダイナミックレンジといった有益な特徴のために、ロボット工学でますます人気がある。
これらのパラメータは、イベントをトリガーするために必要な光強度の変化を規制する。
本稿では,2つのインタラクション手法を用いて,バイアスパラメータを自動的に調整するフィードバック制御アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-25T05:10:34Z) - DARTH: Holistic Test-time Adaptation for Multiple Object Tracking [87.72019733473562]
複数物体追跡(MOT)は、自律運転における知覚システムの基本的構成要素である。
運転システムの安全性の追求にもかかわらず、テスト時間条件における領域シフトに対するMOT適応問題に対する解決策は提案されていない。
我々はMOTの総合的なテスト時間適応フレームワークであるDARTHを紹介する。
論文 参考訳(メタデータ) (2023-10-03T10:10:42Z) - E-Calib: A Fast, Robust and Accurate Calibration Toolbox for Event
Cameras [34.71767308204867]
E-Calibは、イベントカメラの新しい、高速で、堅牢で、正確なキャリブレーションツールボックスである。
提案手法は,様々なイベントカメラモデルに対する様々な厳密な実験で検証される。
論文 参考訳(メタデータ) (2023-06-15T12:16:38Z) - Online Camera-to-ground Calibration for Autonomous Driving [26.357898919134833]
運転中に特定の目標を利用できないオンライン単眼カメラ・地上キャリブレーションソリューションを提案する。
キャリブレーション性能の定量化と,満足度の高いキャリブレーション結果の報告・放送の停止基準を提供する。
論文 参考訳(メタデータ) (2023-03-30T04:01:48Z) - Using simulation to quantify the performance of automotive perception
systems [2.2320512724449233]
本稿では,物体(自動車)検出のための画像システムの性能を評価するために,画像システムシミュレーションソフトウェアツールについて述べる。
我々は,平均精度の測定によりシステム性能を定量化し,システム解像度とオブジェクト検出性能に関する傾向を報告する。
論文 参考訳(メタデータ) (2023-03-02T05:28:35Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - Event-aided Direct Sparse Odometry [54.602311491827805]
本稿では,イベントとフレームを用いた直接単眼視覚計測法であるEDSを紹介する。
我々のアルゴリズムは、イベント生成モデルを利用して、フレーム間のブラインドタイムにおけるカメラの動きを追跡する。
EDSは直接アプローチでイベントとフレームを使用して6-DOF VOを実行する最初の方法である。
論文 参考訳(メタデータ) (2022-04-15T20:40:29Z) - A Quality Index Metric and Method for Online Self-Assessment of
Autonomous Vehicles Sensory Perception [164.93739293097605]
本稿では,検出品質指標(DQI)と呼ばれる新しい評価指標を提案し,カメラを用いた物体検出アルゴリズムの性能を評価する。
我々は,提案したDQI評価指標を予測するために,原画像画素とスーパーピクセルを入力として利用するスーパーピクセルベースのアテンションネットワーク(SPA-NET)を開発した。
論文 参考訳(メタデータ) (2022-03-04T22:16:50Z) - Monitoring and Adapting the Physical State of a Camera for Autonomous
Vehicles [10.490646039938252]
本稿では,データおよび物理モデルに基づくカメラの汎用的・タスク指向型自己維持フレームワークを提案する。
このフレームワークを現実世界の地上車両に実装し、カメラが粗悪な状況に対応するためにパラメータを調整できることを実証する。
われわれのフレームワークは、カメラの健康状態を監視し維持するための実用的なソリューションを提供するだけでなく、より高度な問題に対処するための拡張の基盤としても機能する。
論文 参考訳(メタデータ) (2021-12-10T11:14:44Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。