論文の概要: Control and Evaluation of Event Cameras Output Sharpness via Bias
- arxiv url: http://arxiv.org/abs/2210.13929v1
- Date: Tue, 25 Oct 2022 11:31:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 15:05:36.516628
- Title: Control and Evaluation of Event Cameras Output Sharpness via Bias
- Title(参考訳): バイアスによるイベントカメラ出力シャープネスの制御と評価
- Authors: Mehdi Sefidgar Dilmaghani, Waseem Shariff, Cian Ryan, Joe Lemley,
Peter Corcoran
- Abstract要約: ニューロモルフィックセンサーとしても知られるイベントカメラは、RGBカメラに対していくつかの特権を持つ比較的新しい技術である。
5つの異なるバイアス設定が説明され、イベント出力の変化の影響を調査し分析する。
- 参考スコア(独自算出の注目度): 1.854931308524932
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Event cameras also known as neuromorphic sensors are relatively a new
technology with some privilege over the RGB cameras. The most important one is
their difference in capturing the light changes in the environment, each pixel
changes independently from the others when it captures a change in the
environment light. To increase the users degree of freedom in controlling the
output of these cameras, such as changing the sensitivity of the sensor to
light changes, controlling the number of generated events and other similar
operations, the camera manufacturers usually introduce some tools to make
sensor level changes in camera settings. The contribution of this research is
to examine and document the effects of changing the sensor settings on the
sharpness as an indicator of quality of the generated stream of event data. To
have a qualitative understanding this stream of event is converted to frames,
then the average image gradient magnitude as an index of the number of edges
and accordingly sharpness is calculated for these frames. Five different bias
settings are explained and the effect of their change in the event output is
surveyed and analyzed. In addition, the operation of the event camera sensing
array is explained with an analogue circuit model and the functions of the bias
foundations are linked with this model.
- Abstract(参考訳): ニューロモルフィックセンサーとしても知られるイベントカメラは、比較的新しい技術であり、rgbカメラよりも特権がある。
最も重要なのは、環境の光の変化を捉える際の違いであり、それぞれのピクセルは環境の光の変化を捉えたとき、他のピクセルとは独立して変化する。
これらのカメラの出力を制御する自由度を高めるため、カメラメーカーは通常、センサーの感度を光変化に変化させ、発生したイベントの数や類似の操作を制御するなど、カメラの設定をセンサーレベルに変化させるツールをいくつか導入する。
本研究は, センサ設定の変更が, 発生したイベントデータの品質指標としてのシャープネスに与える影響を検証し, 文書化することを目的とする。
この事象の流れを定性的に理解するために、フレームに変換して、エッジ数の指標としての平均画像勾配度を算出し、これらのフレームに対してシャープネスを算出する。
5つの異なるバイアス設定が説明され、イベント出力の変化の影響を調査し分析する。
さらに、イベントカメラセンサアレイの動作をアナログ回路モデルで説明し、バイアス基盤の機能をこのモデルにリンクする。
関連論文リスト
- Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Make Explicit Calibration Implicit: Calibrate Denoiser Instead of the
Noise Model [83.9497193551511]
デジタルゲインやカメラセンサーによらず有効であるLED(Lighting Every Darkness)を導入する。
LEDは明示的なノイズモデルのキャリブレーションの必要性を排除し、高速な展開と最小限のデータを必要とする暗黙の微調整プロセスを活用する。
LEDは、センサー工学の利点を生かしながら、ディープラーニングの進歩にもっと注力することを可能にする。
論文 参考訳(メタデータ) (2023-08-07T10:09:11Z) - E-Calib: A Fast, Robust and Accurate Calibration Toolbox for Event
Cameras [34.71767308204867]
E-Calibは、イベントカメラの新しい、高速で、堅牢で、正確なキャリブレーションツールボックスである。
提案手法は,様々なイベントカメラモデルに対する様々な厳密な実験で検証される。
論文 参考訳(メタデータ) (2023-06-15T12:16:38Z) - Learning Transformations To Reduce the Geometric Shift in Object
Detection [60.20931827772482]
画像キャプチャプロセスの変動から生じる幾何シフトに対処する。
我々は、これらのシフトを最小限に抑えるために幾何変換の集合を学習する自己学習アプローチを導入する。
我々は,カメラの視野変化(FoV)と視点変化(視点変化)の2つの異なるシフトについて,本手法の評価を行った。
論文 参考訳(メタデータ) (2023-01-13T11:55:30Z) - Fast-moving object counting with an event camera [0.0]
本稿では,高速移動物体のカウントを可能にするビジョンシステムのコンポーネントとして,イベントカメラの利用を提案する。
提案したカウントアルゴリズムは、イベントをリアルタイムで処理する。
イベントカメラを用いて、小型で高速な移動物体と関連する幅広い産業応用をカウントする妥当性を確認することができる。
論文 参考訳(メタデータ) (2022-12-16T10:16:42Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - A Preliminary Research on Space Situational Awareness Based on Event
Cameras [8.27218838055049]
イベントカメラは、従来のカメラとは異なる新しいタイプのセンサーである。
トリガーイベントは、画素に照射された明るさの変化である。
従来のカメラと比較して、イベントカメラは高時間分解能、低レイテンシ、高ダイナミックレンジ、低帯域幅、低消費電力の利点がある。
論文 参考訳(メタデータ) (2022-03-24T14:36:18Z) - Learning Enriched Illuminants for Cross and Single Sensor Color
Constancy [182.4997117953705]
ネットワークをトレーニングするためのクロスセンサ自己教師型トレーニングを提案する。
センサに依存しない方法で人工発光体をランダムにサンプリングすることでネットワークを訓練する。
実験により、我々のクロスセンサモデルとシングルセンサーモデルは、他の最先端手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2022-03-21T15:45:35Z) - Moving Object Detection for Event-based vision using Graph Spectral
Clustering [6.354824287948164]
移動物体検出は、幅広い応用のためのコンピュータビジョンにおける中心的な話題となっている。
イベントベースデータにおける移動物体検出のための教師なしグラフスペクトルクラスタリング手法を提案する。
さらに,移動物体の最適個数を自動決定する方法について述べる。
論文 参考訳(メタデータ) (2021-09-30T10:19:22Z) - Moving Object Detection for Event-based Vision using k-means Clustering [0.0]
物体検出の移動はコンピュータビジョンにおいて重要な課題である。
イベントベースのカメラは、人間の目の動きを模倣して動作するバイオインスパイアされたカメラである。
本稿では,イベントベースデータにおける移動物体の検出におけるk平均クラスタリング手法の適用について検討する。
論文 参考訳(メタデータ) (2021-09-04T14:43:14Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。