論文の概要: Raw2Event: Converting Raw Frame Camera into Event Camera
- arxiv url: http://arxiv.org/abs/2509.06767v1
- Date: Mon, 08 Sep 2025 14:53:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.199059
- Title: Raw2Event: Converting Raw Frame Camera into Event Camera
- Title(参考訳): Raw2Event:RAWフレームカメラをイベントカメラに変換する
- Authors: Zijie Ning, Enmin Lin, Sudarshan R. Iyengar, Patrick Vandewalle,
- Abstract要約: イベントカメラは、高時間分解能、低レイテンシ、高ダイナミックレンジなどのユニークな利点を提供する。
しかし、その高コスト、解像度の制限、オートフォーカスのような機能の欠如は、広く採用を妨げた。
本稿では,Raw2Eventについて紹介する。Raw2Eventは,低コストの生フレームベースカメラによるリアルタイムイベント生成を実現するハードウェア・ソフトウェアシステムである。
- 参考スコア(独自算出の注目度): 6.142559094729439
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Event cameras offer unique advantages such as high temporal resolution, low latency, and high dynamic range, making them more and more popular for vision tasks under challenging light conditions. However, their high cost, limited resolution, and lack of features such as autofocus hinder their broad adoption, particularly for early-stage development and prototyping. In this work, we present Raw2Event, a complete hardware-software system that enables real-time event generation from low-cost raw frame-based cameras. By leveraging direct access to raw Bayer data and bypassing traditional image signal processors (ISP), our system is able to utilize the full potential of camera hardware, delivering higher dynamic range, higher resolution, and more faithful output than RGB-based frame-to-event converters. Built upon the DVS-Voltmeter model, Raw2Event features a configurable simulation framework optimized for deployment on embedded platforms. We further design a data acquisition pipeline that supports synchronized recording of raw, RGB, and event streams, facilitating downstream evaluation and dataset creation. Experimental results show that Raw2Event can generate event streams closely resembling those from real event cameras, while benefiting from higher resolution and autofocus capabilities. The system also supports user-intuitive parameter tuning, enabling flexible adaptation to various application requirements. Finally, we deploy the system on a Raspberry Pi for real-time operation, providing a scalable and cost-effective solution for event-based vision research and early-stage system development. The codes are available online: https://anonymous.4open.science/r/raw2event-BFF2/README.md.
- Abstract(参考訳): イベントカメラは、高時間分解能、低レイテンシ、高ダイナミックレンジなどの独特な利点を提供するため、挑戦的な光条件下での視覚タスクにはますます人気がある。
しかし、その高コスト、解像度の制限、オートフォーカスのような機能の欠如は、特に初期の開発やプロトタイピングにおいて広く採用されるのを妨げている。
本研究では,Raw2Eventについて紹介する。Raw2Eventは,低コストの生フレームベースカメラによるリアルタイムイベント生成を実現するハードウェア・ソフトウェアシステムである。
生のBaierデータに直接アクセスし、従来の画像信号プロセッサ(ISP)をバイパスすることにより、RGBベースのフレーム・ツー・エグゼクティブ・コンバータよりも高いダイナミックレンジ、高解像度、忠実な出力を実現することができる。
DVS-Voltmeterモデルに基づいて構築されたRaw2Eventは、組み込みプラットフォームへのデプロイに最適化された設定可能なシミュレーションフレームワークを備えている。
さらに、生、RGB、イベントストリームの同期記録をサポートし、下流の評価とデータセット作成を容易にするデータ取得パイプラインを設計する。
実験結果によると、Raw2Eventは実際のイベントカメラとよく似たイベントストリームを生成できるが、高解像度とオートフォーカスの利点がある。
このシステムはユーザ直感的なパラメータチューニングもサポートしており、様々なアプリケーション要件への柔軟な適応を可能にしている。
最後に、リアルタイム運用のためにRaspberry Pi上にシステムをデプロイし、イベントベースの視覚研究とアーリーステージシステム開発のためのスケーラブルで費用対効果の高いソリューションを提供します。
コードはオンラインで入手できる: https://anonymous.4open.science/r/raw2event-BFF2/README.md。
関連論文リスト
- Event-Driven Dynamic Scene Depth Completion [50.01494043834177]
EventDCは、最初のイベント駆動のディープコンプリートフレームワークである。
Event-Modulated Alignment (EMA) と Local Depth Filtering (LDF) の2つの重要なコンポーネントで構成されている。
論文 参考訳(メタデータ) (2025-05-19T16:02:37Z) - EventSplat: 3D Gaussian Splatting from Moving Event Cameras for Real-time Rendering [7.392798832833857]
イベントカメラは例外的な時間分解能と高いダイナミックレンジを提供する。
ガウススプラッティングによる新しいビュー合成におけるイベントカメラデータの利用法を提案する。
論文 参考訳(メタデータ) (2024-12-10T08:23:58Z) - E2HQV: High-Quality Video Generation from Event Camera via
Theory-Inspired Model-Aided Deep Learning [53.63364311738552]
バイオインスパイアされたイベントカメラやダイナミックビジョンセンサーは、高時間分解能と高ダイナミックレンジでピクセルごとの明るさ変化(イベントストリームと呼ばれる)を捉えることができる。
イベントストリームを入力として取り出し、直感的な視覚化のために高品質なビデオフレームを生成する、イベント間ビデオ(E2V)ソリューションを求めている。
イベントから高品質なビデオフレームを生成するために設計された新しいE2VパラダイムであるtextbfE2HQVを提案する。
論文 参考訳(メタデータ) (2024-01-16T05:10:50Z) - EventAid: Benchmarking Event-aided Image/Video Enhancement Algorithms
with Real-captured Hybrid Dataset [55.12137324648253]
イベントカメラは、ダイナミックレンジとセンサーの速度で従来のフレームベースの撮像センサーよりも有利な、新興のイメージング技術である。
本稿では,5つのイベント支援画像と映像強調タスクに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-13T15:42:04Z) - Deformable Convolutions and LSTM-based Flexible Event Frame Fusion
Network for Motion Deblurring [7.187030024676791]
イベントカメラは、非同期データシーケンスを生成するという点で、従来のRGBカメラとは異なる。
RGBカメラは固定レートですべてのフレームをキャプチャするが、イベントカメラはシーンの変化のみをキャプチャし、スパースと非同期のデータ出力をもたらす。
最近のCNNベースのデブロアリングソリューションは、イベントデータの蓄積に基づいて、複数の2次元イベントフレームを生成する。
特に、照明条件や現場における動きの速い物体の存在といった要因によって露光時間が異なるシナリオでは特に有用である。
論文 参考訳(メタデータ) (2023-06-01T15:57:12Z) - PyNet-V2 Mobile: Efficient On-Device Photo Processing With Neural
Networks [115.97113917000145]
エッジデバイス用に設計された新しいPyNET-V2 Mobile CNNアーキテクチャを提案する。
提案アーキテクチャでは,携帯電話から直接RAW 12MPの写真を1.5秒で処理することができる。
提案したアーキテクチャは,最新のモバイルAIアクセラレータとも互換性があることが示されている。
論文 参考訳(メタデータ) (2022-11-08T17:18:01Z) - E$^2$(GO)MOTION: Motion Augmented Event Stream for Egocentric Action
Recognition [21.199869051111367]
イベントカメラは「イベント」の形でピクセルレベルの強度変化を捉えます
N-EPIC-Kitchensは、大規模なEPIC-Kitchensデータセットの最初のイベントベースのカメラ拡張である。
イベントデータは、RGBと光フローに匹敵するパフォーマンスを提供するが、デプロイ時に追加のフロー計算を行わないことを示す。
論文 参考訳(メタデータ) (2021-12-07T09:43:08Z) - Learning to Detect Objects with a 1 Megapixel Event Camera [14.949946376335305]
イベントカメラは、高時間精度、低データレート、高ダイナミックレンジで視覚情報を符号化する。
フィールドの新規性のため、多くのビジョンタスクにおけるイベントベースのシステムの性能は、従来のフレームベースのソリューションに比べて依然として低い。
論文 参考訳(メタデータ) (2020-09-28T16:03:59Z) - EventSR: From Asynchronous Events to Image Reconstruction, Restoration,
and Super-Resolution via End-to-End Adversarial Learning [75.17497166510083]
イベントカメラは強度の変化を感知し、従来のカメラよりも多くの利点がある。
イベントストリームからの強度画像の再構成手法が提案されている。
出力は依然として低解像度(LR)、ノイズ、非現実的である。
本研究では、イベントストリームからLR画像を再構成し、画像品質を高め、EventSRと呼ばれる拡張イメージをアップサンプリングする、新しいエンドツーエンドパイプラインを提案する。
論文 参考訳(メタデータ) (2020-03-17T10:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。