論文の概要: Autobiasing Event Cameras for Flickering Mitigation
- arxiv url: http://arxiv.org/abs/2511.02180v1
- Date: Tue, 04 Nov 2025 01:49:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.771013
- Title: Autobiasing Event Cameras for Flickering Mitigation
- Title(参考訳): フレッカリング緩和のためのオートバイアスイベントカメラ
- Authors: Mehdi Sefidgar Dilmaghani, Waseem Shariff, Cian Ryan, Joe Lemley, Peter Corcoran,
- Abstract要約: 本稿では,イベントカメラのバイアスを調整するための革新的な自律機構を提案する。
このシステムは空間空間におけるフリックのインスタンスを特定し、その影響を最小限に抑えるために特定のバイアスを動的に調整する。
このオートバイアスシステムの有効性は、高照度と低照度の両方の条件下で、顔検出フレームワークを用いて頑健に検証された。
- 参考スコア(独自算出の注目度): 7.281297644096665
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Understanding and mitigating flicker effects caused by rapid variations in light intensity is critical for enhancing the performance of event cameras in diverse environments. This paper introduces an innovative autonomous mechanism for tuning the biases of event cameras, effectively addressing flicker across a wide frequency range -25 Hz to 500 Hz. Unlike traditional methods that rely on additional hardware or software for flicker filtering, our approach leverages the event cameras inherent bias settings. Utilizing a simple Convolutional Neural Networks -CNNs, the system identifies instances of flicker in a spatial space and dynamically adjusts specific biases to minimize its impact. The efficacy of this autobiasing system was robustly tested using a face detector framework under both well-lit and low-light conditions, as well as across various frequencies. The results demonstrated significant improvements: enhanced YOLO confidence metrics for face detection, and an increased percentage of frames capturing detected faces. Moreover, the average gradient, which serves as an indicator of flicker presence through edge detection, decreased by 38.2 percent in well-lit conditions and by 53.6 percent in low-light conditions. These findings underscore the potential of our approach to significantly improve the functionality of event cameras in a range of adverse lighting scenarios.
- Abstract(参考訳): 光強度の急激な変化によるフレッカ効果の理解と緩和は,各種環境におけるイベントカメラの性能向上に不可欠である。
本稿では、イベントカメラのバイアスを調整する革新的な自律機構を導入し、広帯域(25Hz〜500Hz)のフレッカに効果的に対処する。
フレッカフィルタリングにハードウェアやソフトウェアを追加する従来の方法とは異なり、当社のアプローチでは、イベントカメラ固有のバイアス設定を活用しています。
単純な畳み込みニューラルネットワーク-CNNを用いて、空間空間におけるフリックのインスタンスを特定し、特定のバイアスを動的に調整し、影響を最小限に抑える。
このオートバイアスシステムの有効性は、多種多様な周波数だけでなく、明るい光と低い光の両方の条件下で、顔検出フレームワークを用いてしっかりと検証された。
その結果,顔検出のためのYOLO信頼度が向上し,検出した顔のフレームの割合が増加した。
さらに、エッジ検出によるフリックの存在の指標となる平均勾配は、明るい条件では38.2%、低照度では53.6%減少している。
これらの知見は, 各種の有害照明シナリオにおいて, イベントカメラの機能を大幅に向上させるアプローチの可能性を明らかにするものである。
関連論文リスト
- Bidirectional Image-Event Guided Low-Light Image Enhancement [18.482432245937247]
極端に低照度な条件下では、伝統的なフレームベースのカメラは、ダイナミックレンジと時間分解能が限られており、撮影画像の細部が失われ、動きがぼやけている。
このボトルネックを克服するため、研究者はイベントカメラを導入し、イベント誘導低照度画像強調アルゴリズムを提案した。
しかし, これらの手法は, ダイナミック照明条件による大域的低周波雑音の影響を無視し, スパース事象データにおける局所構造の不連続性も無視する。
論文 参考訳(メタデータ) (2025-06-06T14:28:17Z) - Low-Light Image Enhancement using Event-Based Illumination Estimation [83.81648559951684]
低照度画像強調(LLIE)は、低照度環境で撮影された画像の可視性を改善することを目的としている。
本稿では,「時間的マッピング」イベントを用いた照明推定の観点から,新たな道を開く。
我々は、ビームスプリッターのセットアップを構築し、画像、時間的マッピングイベント、モーションイベントを含むEvLowLightデータセットを収集する。
論文 参考訳(メタデータ) (2025-04-13T00:01:33Z) - Autobiasing Event Cameras [0.932065750652415]
本稿では,運転監視システムのニューロモルフィックYOLOベースの顔追跡モジュールをイベントベース研究への応用として活用する。
提案手法は,リアルタイムにイベントベースアプリケーションの性能を継続的に監視するために,数値メトリクスを用いる。
バイアス最適化の利点は、追加のハードウェアやソフトウェアを必要とせずに、点滅や暗黒といった条件を処理できることにある。
論文 参考訳(メタデータ) (2024-11-01T16:41:05Z) - Toward Efficient Visual Gyroscopes: Spherical Moments, Harmonics Filtering, and Masking Techniques for Spherical Camera Applications [83.8743080143778]
視覚ジャイロスコープは、画像を通してカメラの回転を推定する。
従来のRGBカメラに比べて視野が広い全方位カメラの統合は、より正確で堅牢な結果をもたらすことが証明されている。
本稿では,効率的なマルチマスク・フィルタ回転エステータと学習に基づく最適化を組み合わせた,新しい視覚ジャイロスコープを導入することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2024-04-02T13:19:06Z) - Enhancing Visual Place Recognition via Fast and Slow Adaptive Biasing in Event Cameras [18.348497200655746]
イベントカメラは、低レイテンシ、エネルギー効率、高ダイナミックレンジといった有益な特徴のために、ロボット工学でますます人気がある。
これらのパラメータは、イベントをトリガーするために必要な光強度の変化を規制する。
本稿では,2つのインタラクション手法を用いて,バイアスパラメータを自動的に調整するフィードバック制御アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-25T05:10:34Z) - Robust e-NeRF: NeRF from Sparse & Noisy Events under Non-Uniform Motion [67.15935067326662]
イベントカメラは低電力、低レイテンシ、高時間解像度、高ダイナミックレンジを提供する。
NeRFは効率的かつ効果的なシーン表現の第一候補と見なされている。
本稿では,移動イベントカメラからNeRFを直接かつ堅牢に再構成する新しい手法であるRobust e-NeRFを提案する。
論文 参考訳(メタデータ) (2023-09-15T17:52:08Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。