論文の概要: EVREAL: Towards a Comprehensive Benchmark and Analysis Suite for Event-based Video Reconstruction
- arxiv url: http://arxiv.org/abs/2305.00434v2
- Date: Fri, 5 Apr 2024 08:53:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-08 20:59:44.879716
- Title: EVREAL: Towards a Comprehensive Benchmark and Analysis Suite for Event-based Video Reconstruction
- Title(参考訳): EVREAL:イベントベースビデオ再構成のための総合ベンチマークと分析スイート
- Authors: Burak Ercan, Onur Eker, Aykut Erdem, Erkut Erdem,
- Abstract要約: イベントカメラは、高ダイナミックレンジや最小モーションブラーといった従来のフレームベースのカメラよりも利点がある。
彼らの出力は、人間が容易に理解できないため、イベントストリームからの強度画像の再構成は、イベントベースのビジョンにおいて基本的なタスクとなる。
近年の深層学習に基づく手法は,イベントからの映像再構成において有望であることを示すものであるが,この問題はまだ完全には解決されていない。
- 参考スコア(独自算出の注目度): 16.432164340779266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras are a new type of vision sensor that incorporates asynchronous and independent pixels, offering advantages over traditional frame-based cameras such as high dynamic range and minimal motion blur. However, their output is not easily understandable by humans, making the reconstruction of intensity images from event streams a fundamental task in event-based vision. While recent deep learning-based methods have shown promise in video reconstruction from events, this problem is not completely solved yet. To facilitate comparison between different approaches, standardized evaluation protocols and diverse test datasets are essential. This paper proposes a unified evaluation methodology and introduces an open-source framework called EVREAL to comprehensively benchmark and analyze various event-based video reconstruction methods from the literature. Using EVREAL, we give a detailed analysis of the state-of-the-art methods for event-based video reconstruction, and provide valuable insights into the performance of these methods under varying settings, challenging scenarios, and downstream tasks.
- Abstract(参考訳): イベントカメラは、非同期と独立のピクセルを内蔵した新しいタイプの視覚センサーであり、高ダイナミックレンジや最小のモーションボケのような従来のフレームベースのカメラよりも利点がある。
しかし、その出力は人間にとって容易には理解できないため、イベントストリームからの強度画像の再構成は、イベントベースのビジョンにおいて基本的なタスクとなる。
近年の深層学習に基づく手法は,イベントからの映像再構成において有望であることを示しているが,この問題はまだ完全には解決されていない。
異なるアプローチの比較を容易にするため、標準化された評価プロトコルと多様なテストデータセットが不可欠である。
本稿では,統一評価手法を提案し,EVREALと呼ばれるオープンソースのフレームワークを導入し,様々なイベントベースビデオ再構成手法を総合的にベンチマークし分析する。
EVREALを用いて、イベントベースのビデオ再構成のための最先端の手法を詳細に分析し、これらの手法の様々な設定、挑戦シナリオ、下流タスクにおける性能に関する貴重な洞察を提供する。
関連論文リスト
- E2HQV: High-Quality Video Generation from Event Camera via
Theory-Inspired Model-Aided Deep Learning [53.63364311738552]
バイオインスパイアされたイベントカメラやダイナミックビジョンセンサーは、高時間分解能と高ダイナミックレンジでピクセルごとの明るさ変化(イベントストリームと呼ばれる)を捉えることができる。
イベントストリームを入力として取り出し、直感的な視覚化のために高品質なビデオフレームを生成する、イベント間ビデオ(E2V)ソリューションを求めている。
イベントから高品質なビデオフレームを生成するために設計された新しいE2VパラダイムであるtextbfE2HQVを提案する。
論文 参考訳(メタデータ) (2024-01-16T05:10:50Z) - EventAid: Benchmarking Event-aided Image/Video Enhancement Algorithms
with Real-captured Hybrid Dataset [55.12137324648253]
イベントカメラは、ダイナミックレンジとセンサーの速度で従来のフレームベースの撮像センサーよりも有利な、新興のイメージング技術である。
本稿では,5つのイベント支援画像と映像強調タスクに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-13T15:42:04Z) - FODVid: Flow-guided Object Discovery in Videos [12.792602427704395]
我々は、個々の複雑さに過度に適合しないように、一般化可能なソリューションを構築することに注力する。
教師なしの環境でビデオオブジェクト(VOS)を解決するために,セグメント出力の導出に基づく新しいパイプライン(FODVid)を提案する。
論文 参考訳(メタデータ) (2023-07-10T07:55:42Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - Deep Learning for Event-based Vision: A Comprehensive Survey and Benchmarks [55.81577205593956]
イベントカメラはバイオインスパイアされたセンサーで、ピクセルごとの強度の変化を非同期に捉える。
深層学習(DL)はこの新興分野に導入され、その可能性のマイニングに活発な研究努力にインスピレーションを与えている。
論文 参考訳(メタデータ) (2023-02-17T14:19:28Z) - Event-based Non-Rigid Reconstruction from Contours [17.049602518532847]
本稿では,イベントベースカメラを用いた新しい変形再構成手法を提案する。
全てのイベントが動きによって生成される静的な背景の仮定の下で、我々の手法はオブジェクトの輪郭で生成されたイベントからオブジェクトの変形を推定する。
イベントを輪郭のメッシュフェイスに関連付け、イベントピクセルと関連する顔との間の視線のアライメントを最大化する。
論文 参考訳(メタデータ) (2022-10-12T14:53:11Z) - RelPose: Predicting Probabilistic Relative Rotation for Single Objects
in the Wild [73.1276968007689]
本稿では、任意のオブジェクトの複数の画像からカメラ視点を推定するデータ駆動手法について述べる。
本手法は, 画像の鮮明さから, 最先端のSfM法とSLAM法より優れていることを示す。
論文 参考訳(メタデータ) (2022-08-11T17:59:59Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Learning Event-Based Motion Deblurring [39.16921854492941]
高速な動きは、イベントベースのカメラの高速でイベントとしてキャプチャすることができる。
我々は、その最適化を、新しいエンドツーエンドのディープアーキテクチャでどのように展開できるかを示す。
提案手法は、最先端の復元品質を実現し、実世界の動きのぼかし処理をより一般化する。
論文 参考訳(メタデータ) (2020-04-13T07:01:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。