論文の概要: Control and Evaluation of Event Cameras Output Sharpness via Bias
- arxiv url: http://arxiv.org/abs/2210.13929v1
- Date: Tue, 25 Oct 2022 11:31:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 15:05:36.516628
- Title: Control and Evaluation of Event Cameras Output Sharpness via Bias
- Title(参考訳): バイアスによるイベントカメラ出力シャープネスの制御と評価
- Authors: Mehdi Sefidgar Dilmaghani, Waseem Shariff, Cian Ryan, Joe Lemley,
Peter Corcoran
- Abstract要約: ニューロモルフィックセンサーとしても知られるイベントカメラは、RGBカメラに対していくつかの特権を持つ比較的新しい技術である。
5つの異なるバイアス設定が説明され、イベント出力の変化の影響を調査し分析する。
- 参考スコア(独自算出の注目度): 1.854931308524932
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Event cameras also known as neuromorphic sensors are relatively a new
technology with some privilege over the RGB cameras. The most important one is
their difference in capturing the light changes in the environment, each pixel
changes independently from the others when it captures a change in the
environment light. To increase the users degree of freedom in controlling the
output of these cameras, such as changing the sensitivity of the sensor to
light changes, controlling the number of generated events and other similar
operations, the camera manufacturers usually introduce some tools to make
sensor level changes in camera settings. The contribution of this research is
to examine and document the effects of changing the sensor settings on the
sharpness as an indicator of quality of the generated stream of event data. To
have a qualitative understanding this stream of event is converted to frames,
then the average image gradient magnitude as an index of the number of edges
and accordingly sharpness is calculated for these frames. Five different bias
settings are explained and the effect of their change in the event output is
surveyed and analyzed. In addition, the operation of the event camera sensing
array is explained with an analogue circuit model and the functions of the bias
foundations are linked with this model.
- Abstract(参考訳): ニューロモルフィックセンサーとしても知られるイベントカメラは、比較的新しい技術であり、rgbカメラよりも特権がある。
最も重要なのは、環境の光の変化を捉える際の違いであり、それぞれのピクセルは環境の光の変化を捉えたとき、他のピクセルとは独立して変化する。
これらのカメラの出力を制御する自由度を高めるため、カメラメーカーは通常、センサーの感度を光変化に変化させ、発生したイベントの数や類似の操作を制御するなど、カメラの設定をセンサーレベルに変化させるツールをいくつか導入する。
本研究は, センサ設定の変更が, 発生したイベントデータの品質指標としてのシャープネスに与える影響を検証し, 文書化することを目的とする。
この事象の流れを定性的に理解するために、フレームに変換して、エッジ数の指標としての平均画像勾配度を算出し、これらのフレームに対してシャープネスを算出する。
5つの異なるバイアス設定が説明され、イベント出力の変化の影響を調査し分析する。
さらに、イベントカメラセンサアレイの動作をアナログ回路モデルで説明し、バイアス基盤の機能をこのモデルにリンクする。
関連論文リスト
- MSSIDD: A Benchmark for Multi-Sensor Denoising [55.41612200877861]
我々は,マルチセンサSIDDデータセットという新しいベンチマークを導入する。これは,認知モデルのセンサ伝達性を評価するために設計された,最初の生ドメインデータセットである。
そこで本研究では,センサに不変な特徴を認知モデルで学習することのできるセンサ一貫性トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-18T13:32:59Z) - Gradient events: improved acquisition of visual information in event cameras [0.0]
従来の明るさイベントと同じ特性から恩恵を受ける新しいタイプのイベントである勾配イベントを提案する。
勾配イベントに基づくビデオ再構成は、既存の最先端の輝度イベントベースの手法よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2024-09-03T10:18:35Z) - Unexplored Faces of Robustness and Out-of-Distribution: Covariate Shifts in Environment and Sensor Domains [2.4572304328659595]
本稿では,新しい分散シフトデータセットであるImageNet-ESを紹介する。
分布外検出(OOD)とモデルロバスト性の評価を行った。
以上の結果から,カメラセンサ制御による効果的なシフト緩和は,モデルサイズを増大させることなく性能を著しく向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2024-04-24T13:59:19Z) - Make Explicit Calibration Implicit: Calibrate Denoiser Instead of the
Noise Model [83.9497193551511]
デジタルゲインやカメラセンサーによらず有効であるLED(Lighting Every Darkness)を導入する。
LEDは明示的なノイズモデルのキャリブレーションの必要性を排除し、高速な展開と最小限のデータを必要とする暗黙の微調整プロセスを活用する。
LEDは、センサー工学の利点を生かしながら、ディープラーニングの進歩にもっと注力することを可能にする。
論文 参考訳(メタデータ) (2023-08-07T10:09:11Z) - E-Calib: A Fast, Robust and Accurate Calibration Toolbox for Event Cameras [18.54225086007182]
E-Calibは、イベントカメラの新しい、高速で、堅牢で、正確なキャリブレーションツールボックスである。
提案手法は,様々なイベントカメラモデルに対する様々な厳密な実験で検証される。
論文 参考訳(メタデータ) (2023-06-15T12:16:38Z) - Learning Transformations To Reduce the Geometric Shift in Object
Detection [60.20931827772482]
画像キャプチャプロセスの変動から生じる幾何シフトに対処する。
我々は、これらのシフトを最小限に抑えるために幾何変換の集合を学習する自己学習アプローチを導入する。
我々は,カメラの視野変化(FoV)と視点変化(視点変化)の2つの異なるシフトについて,本手法の評価を行った。
論文 参考訳(メタデータ) (2023-01-13T11:55:30Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - Learning Enriched Illuminants for Cross and Single Sensor Color
Constancy [182.4997117953705]
ネットワークをトレーニングするためのクロスセンサ自己教師型トレーニングを提案する。
センサに依存しない方法で人工発光体をランダムにサンプリングすることでネットワークを訓練する。
実験により、我々のクロスセンサモデルとシングルセンサーモデルは、他の最先端手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2022-03-21T15:45:35Z) - Moving Object Detection for Event-based vision using Graph Spectral
Clustering [6.354824287948164]
移動物体検出は、幅広い応用のためのコンピュータビジョンにおける中心的な話題となっている。
イベントベースデータにおける移動物体検出のための教師なしグラフスペクトルクラスタリング手法を提案する。
さらに,移動物体の最適個数を自動決定する方法について述べる。
論文 参考訳(メタデータ) (2021-09-30T10:19:22Z) - Moving Object Detection for Event-based Vision using k-means Clustering [0.0]
物体検出の移動はコンピュータビジョンにおいて重要な課題である。
イベントベースのカメラは、人間の目の動きを模倣して動作するバイオインスパイアされたカメラである。
本稿では,イベントベースデータにおける移動物体の検出におけるk平均クラスタリング手法の適用について検討する。
論文 参考訳(メタデータ) (2021-09-04T14:43:14Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。