論文の概要: BiasBench: A reproducible benchmark for tuning the biases of event cameras
- arxiv url: http://arxiv.org/abs/2504.18235v1
- Date: Fri, 25 Apr 2025 10:33:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.739372
- Title: BiasBench: A reproducible benchmark for tuning the biases of event cameras
- Title(参考訳): BiasBench: イベントカメラのバイアスを調整する再現可能なベンチマーク
- Authors: Andreas Ziegler, David Joseph, Thomas Gossard, Emil Moldovan, Andreas Zell,
- Abstract要約: イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの光の変化を非同期に検知する。
従来のフレームベースのカメラよりもいくつかの利点があるため、コンピュータービジョンやロボティクスなどの分野での利用が増えている。
他のカメラと同様に、出力の質は、イベントベースのカメラのバイアスと呼ばれるカメラの設定がどの程度うまく設定されているかによって異なります。
- 参考スコア(独自算出の注目度): 10.401271236186794
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event-based cameras are bio-inspired sensors that detect light changes asynchronously for each pixel. They are increasingly used in fields like computer vision and robotics because of several advantages over traditional frame-based cameras, such as high temporal resolution, low latency, and high dynamic range. As with any camera, the output's quality depends on how well the camera's settings, called biases for event-based cameras, are configured. While frame-based cameras have advanced automatic configuration algorithms, there are very few such tools for tuning these biases. A systematic testing framework would require observing the same scene with different biases, which is tricky since event cameras only generate events when there is movement. Event simulators exist, but since biases heavily depend on the electrical circuit and the pixel design, available simulators are not well suited for bias tuning. To allow reproducibility, we present BiasBench, a novel event dataset containing multiple scenes with settings sampled in a grid-like pattern. We present three different scenes, each with a quality metric of the downstream application. Additionally, we present a novel, RL-based method to facilitate online bias adjustments.
- Abstract(参考訳): イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの光の変化を非同期に検知する。
コンピュータビジョンやロボティクスなどの分野では、高時間分解能、低レイテンシ、高ダイナミックレンジなど、従来のフレームベースのカメラよりもいくつかの利点があるため、ますます使われている。
他のカメラと同様に、出力の質は、イベントベースのカメラのバイアスと呼ばれるカメラの設定がどの程度うまく設定されているかによって異なります。
フレームベースのカメラには高度な自動構成アルゴリズムがあるが、これらのバイアスを調整するためのツールはほとんどない。
イベントカメラは動きがある場合にのみイベントを生成するため、これは難しい。
イベントシミュレータは存在するが、バイアスは電気回路やピクセル設計に大きく依存しているため、利用可能なシミュレータはバイアスチューニングには適していない。
再現性を確保するために、グリッドのようなパターンでサンプル化された複数のシーンを含む新しいイベントデータセットであるBiasBenchを提案する。
ダウンストリームアプリケーションの品質基準を持つ3つの異なるシーンを提示する。
さらに,オンラインバイアス調整を容易にする新しいRLベースの手法を提案する。
関連論文リスト
- Deep Event Visual Odometry [40.57142632274148]
イベントカメラは、高速動作中にカメラのポーズを追跡するエキサイティングな可能性を提供します。
既存のイベントベースのモノクロビジュアルオドメトリーアプローチは、最近のベンチマークで限られたパフォーマンスを示している。
我々は,多数の実世界のベンチマークで高い性能を示す最初の単眼イベントオンリーシステムであるDeep Event VO(DEVO)を紹介する。
論文 参考訳(メタデータ) (2023-12-15T14:00:00Z) - E-Calib: A Fast, Robust and Accurate Calibration Toolbox for Event Cameras [18.54225086007182]
E-Calibは、イベントカメラの新しい、高速で、堅牢で、正確なキャリブレーションツールボックスである。
提案手法は,様々なイベントカメラモデルに対する様々な厳密な実験で検証される。
論文 参考訳(メタデータ) (2023-06-15T12:16:38Z) - Temporal and Contextual Transformer for Multi-Camera Editing of TV Shows [83.54243912535667]
まず、コンサート、スポーツゲーム、ガラショー、コンテストを含む4つの異なるシナリオを用いて、この設定に関する新しいベンチマークを収集する。
14時間編集されたビデオに貢献する88時間の生のビデオが含まれている。
歴史的ショットやその他の視点からのヒントを利用してショット遷移決定を行う新しいアプローチである時間的・文脈的変換器を提案する。
論文 参考訳(メタデータ) (2022-10-17T04:11:23Z) - PL-EVIO: Robust Monocular Event-based Visual Inertial Odometry with
Point and Line Features [3.6355269783970394]
イベントカメラは、フレームレートが固定された強度画像の代わりにピクセルレベルの照明変化をキャプチャするモーションアクティベートセンサーである。
本稿では,ロバストで高精度でリアルタイムな単眼イベントベース視覚慣性オドメトリー(VIO)法を提案する。
論文 参考訳(メタデータ) (2022-09-25T06:14:12Z) - Automatic Camera Control and Directing with an Ultra-High-Definition
Collaborative Recording System [0.5735035463793007]
複数のカメラアングルからイベントをキャプチャすることで、視聴者はそのイベントの最も完全で興味深い写真を得ることができる。
全方位カメラや広角カメラの導入により、イベントをより完全に捉えられるようになった。
イベントの複数の超高解像度ビデオストリームが与えられると、視覚的に喜ぶ一連のショットを生成することができるシステムを示す。
論文 参考訳(メタデータ) (2022-08-10T08:28:08Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - How to Calibrate Your Event Camera [58.80418612800161]
画像再構成を用いた汎用イベントカメラキャリブレーションフレームワークを提案する。
ニューラルネットワークに基づく画像再構成は,イベントカメラの内在的・外在的キャリブレーションに適していることを示す。
論文 参考訳(メタデータ) (2021-05-26T07:06:58Z) - Combining Events and Frames using Recurrent Asynchronous Multimodal
Networks for Monocular Depth Prediction [51.072733683919246]
複数のセンサからの非同期および不規則なデータを処理するために、リカレント非同期マルチモーダル(RAM)ネットワークを導入する。
従来のRNNにインスパイアされたRAMネットワークは、非同期に更新され、予測を生成するためにいつでもクエリできる隠れ状態を維持している。
平均深度絶対誤差において,最先端手法を最大30%改善することを示す。
論文 参考訳(メタデータ) (2021-02-18T13:24:35Z) - EventHands: Real-Time Neural 3D Hand Reconstruction from an Event Stream [80.15360180192175]
単眼ビデオからの3d手ポーズ推定は、長年の課題である。
我々は1つのイベントカメラ、すなわち明るさ変化に反応する非同期視覚センサを使用して、初めてそれに対処する。
従来,単一のrgbカメラや深度カメラでは表示されなかった特徴がある。
論文 参考訳(メタデータ) (2020-12-11T16:45:34Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Event-based Stereo Visual Odometry [42.77238738150496]
ステレオ・イベント・ベースのカメラ・リグが取得したデータから視覚計測の問題に対する解決策を提案する。
我々は,シンプルかつ効率的な表現を用いて,ステレオイベントベースのデータの時間的一貫性を最大化する。
論文 参考訳(メタデータ) (2020-07-30T15:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。