論文の概要: A Linear Comb Filter for Event Flicker Removal
- arxiv url: http://arxiv.org/abs/2205.08090v1
- Date: Tue, 17 May 2022 04:47:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-18 13:58:22.065352
- Title: A Linear Comb Filter for Event Flicker Removal
- Title(参考訳): イベントフリッカ除去のための線形コムフィルタ
- Authors: Ziwei Wang, Dingran Yuan, Yonhon Ng and Robert Mahony
- Abstract要約: イベントカメラはバイオインスパイアされたセンサーで、ピクセルごとの非同期強度の変化をキャプチャする。
時間分解能が高いため、イベントカメラは蛍光灯やLEDライトなどのフリックに特に敏感である。
本稿では,イベントストリームから不要なフレッカイベントを取り除くために,イベントデータを前処理する線形フィルタを提案する。
- 参考スコア(独自算出の注目度): 11.731970880432563
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras are bio-inspired sensors that capture per-pixel asynchronous
intensity change rather than the synchronous absolute intensity frames captured
by a classical camera sensor. Such cameras are ideal for robotics applications
since they have high temporal resolution, high dynamic range and low latency.
However, due to their high temporal resolution, event cameras are particularly
sensitive to flicker such as from fluorescent or LED lights. During every cycle
from bright to dark, pixels that image a flickering light source generate many
events that provide little or no useful information for a robot, swamping the
useful data in the scene. In this paper, we propose a novel linear filter to
preprocess event data to remove unwanted flicker events from an event stream.
The proposed algorithm achieves over 4.6 times relative improvement in the
signal-to-noise ratio when compared to the raw event stream due to the
effective removal of flicker from fluorescent lighting. Thus, it is ideally
suited to robotics applications that operate in indoor settings or scenes
illuminated by flickering light sources.
- Abstract(参考訳): イベントカメラはバイオインスパイアされたセンサーで、従来のカメラセンサーが捉えた同期的な絶対強度フレームではなく、ピクセル単位の非同期強度変化を捉える。
このようなカメラは、高時間分解能、高ダイナミックレンジ、低レイテンシを有するため、ロボット工学応用に最適である。
しかし、時間分解能が高いため、イベントカメラは蛍光灯やLEDライトなどのフリックに特に敏感である。
明るいものから暗いものまであらゆるサイクルで、点滅する光源を画像化するピクセルは、ロボットにはほとんど、あるいは全く有用な情報を提供しない多くのイベントを生成し、シーンで有用なデータを洗い流す。
本稿では,イベントストリームから不要なflickerイベントを除去するために,イベントデータを前処理するリニアフィルタを提案する。
提案手法は,蛍光灯からのフレッカの有効除去により,生のイベントストリームと比較して信号対雑音比が4.6倍以上向上した。
したがって、照明光源を点滅させて照明する屋内環境やシーンで動作するロボットアプリケーションに適している。
関連論文リスト
- Event Cameras Meet SPADs for High-Speed, Low-Bandwidth Imaging [25.13346470561497]
イベントカメラと単光雪崩ダイオード(SPAD)センサーは、従来のカメラに代わる有望な代替手段として登場した。
これらの特性は相補的であり,低帯域幅で低照度かつ高速な画像再構成を実現するのに有効であることを示す。
論文 参考訳(メタデータ) (2024-04-17T16:06:29Z) - Robust e-NeRF: NeRF from Sparse & Noisy Events under Non-Uniform Motion [67.15935067326662]
イベントカメラは低電力、低レイテンシ、高時間解像度、高ダイナミックレンジを提供する。
NeRFは効率的かつ効果的なシーン表現の第一候補と見なされている。
本稿では,移動イベントカメラからNeRFを直接かつ堅牢に再構成する新しい手法であるRobust e-NeRFを提案する。
論文 参考訳(メタデータ) (2023-09-15T17:52:08Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - Combining Events and Frames using Recurrent Asynchronous Multimodal
Networks for Monocular Depth Prediction [51.072733683919246]
複数のセンサからの非同期および不規則なデータを処理するために、リカレント非同期マルチモーダル(RAM)ネットワークを導入する。
従来のRNNにインスパイアされたRAMネットワークは、非同期に更新され、予測を生成するためにいつでもクエリできる隠れ状態を維持している。
平均深度絶対誤差において,最先端手法を最大30%改善することを示す。
論文 参考訳(メタデータ) (2021-02-18T13:24:35Z) - An Asynchronous Kalman Filter for Hybrid Event Cameras [13.600773150848543]
イベントカメラはhdrの視覚情報をぼやけることなく捉えるのに理想的だ。
従来のイメージセンサーは、ゆっくりと変化するシーンの絶対強度を効果的に測定するが、高いダイナミックレンジや素早く変化するシーンでは不十分である。
本稿では,ハイダイナミックレンジシナリオのためのイベントベースビデオ再構成パイプラインを提案する。
論文 参考訳(メタデータ) (2020-12-10T11:24:07Z) - Asynchronous Corner Tracking Algorithm based on Lifetime of Events for
DAVIS Cameras [0.9988653233188148]
イベントカメラ、すなわちダイナミックおよびアクティブピクセルビジョンセンサー(DAVIS)はシーンの強度変化を捉え、非同期でイベントストリームを生成する。
このようなカメラの出力速度は、高ダイナミックな環境で毎秒最大1000万イベントに達することができる。
DAVISカメラで捉えたイベントと強度画像の両方を利用した非同期コーナー追跡手法を提案する。
論文 参考訳(メタデータ) (2020-10-29T12:02:40Z) - Reducing the Sim-to-Real Gap for Event Cameras [64.89183456212069]
イベントカメラは、非同期でピクセルごとの明るさ変化を報告し、非並列の低レイテンシで「イベント」と呼ばれるパラダイムシフトする新しいセンサーである。
近年の研究では、コンボリューショナルニューラルネットワーク(CNN)を用いて、映像再構成とイベントによる光学的流れを実証している。
既存のビデオ再構成ネットワークの性能を20~40%向上させるイベントベースCNNのトレーニングデータ改善戦略を提案する。
論文 参考訳(メタデータ) (2020-03-20T02:44:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。