論文の概要: Filter-Based Reconstruction of Images from Events
- arxiv url: http://arxiv.org/abs/2510.20071v1
- Date: Wed, 22 Oct 2025 23:05:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:16.939974
- Title: Filter-Based Reconstruction of Images from Events
- Title(参考訳): イベントからのフィルタによる画像再構成
- Authors: Bernd Pfrommer,
- Abstract要約: 動くイベントカメラのイベントからの強度画像の再構成は難しい作業である。
本稿では、よりシンプルなFIlterベースの非同期再構成法を提案する。
ニューラルネットワークベースの手法よりもノイズが多く、ゴーストイメージに悩まされている。
- 参考スコア(独自算出の注目度): 0.40611352512781873
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reconstructing an intensity image from the events of a moving event camera is a challenging task that is typically approached with neural networks deployed on graphics processing units. This paper presents a much simpler, FIlter Based Asynchronous Reconstruction method (FIBAR). First, intensity changes signaled by events are integrated with a temporal digital IIR filter. To reduce reconstruction noise, stale pixels are detected by a novel algorithm that regulates a window of recently updated pixels. Arguing that for a moving camera, the absence of events at a pixel location likely implies a low image gradient, stale pixels are then blurred with a Gaussian filter. In contrast to most existing methods, FIBAR is asynchronous and permits image read-out at an arbitrary time. It runs on a modern laptop CPU at about 42(140) million events/s with (without) spatial filtering enabled. A few simple qualitative experiments are presented that show the difference in image reconstruction between FIBAR and a neural network-based approach (FireNet). FIBAR's reconstruction is noisier than neural network-based methods and suffers from ghost images. However, it is sufficient for certain tasks such as the detection of fiducial markers. Code is available at https://github.com/ros-event-camera/event_image_reconstruction_fibar
- Abstract(参考訳): 動くイベントカメラのイベントからの強度画像の再構成は、通常、グラフィックス処理ユニットにデプロイされたニューラルネットワークでアプローチされる難しいタスクである。
本稿では,よりシンプルなFIBAR(FIlter Based Asynchronous Reconstruction method)を提案する。
第一に、イベントによって信号される強度変化は、テンポラルデジタルIIRフィルタと統合される。
再構成ノイズを低減するため、最近更新された画素のウィンドウを規制する新しいアルゴリズムにより、古い画素を検出する。
動くカメラの場合、ピクセル位置でのイベントがないことは、画像勾配が低いことを意味する可能性があり、古いピクセルはガウスフィルタでぼやけている。
既存のほとんどのメソッドとは対照的に、FIBARは非同期であり、任意のタイミングで画像を読み取ることができる。
現代のラップトップCPUで約42(140)万のイベント/秒で動作する。
FIBARとニューラルネットワークベースのアプローチ(FireNet)のイメージ再構成の違いを示す、いくつかの簡単な定性的実験が提示されている。
FIBARの再構成はニューラルネットワークベースの手法よりもノイズが多く、ゴーストイメージに悩まされている。
しかし、フィデューシャルマーカーの検出のような特定のタスクには十分である。
コードはhttps://github.com/ros-event-camera/event_image_reconstruction_fibarで公開されている。
関連論文リスト
- bit2bit: 1-bit quanta video reconstruction via self-supervised photon prediction [57.199618102578576]
疎二分量時間画像データから高画質の画像スタックを元の解像度で再構成する新しい方法であるbit2bitを提案する。
Poisson denoisingの最近の研究に触発されて、スパースバイナリ光子データから高密度な画像列を生成するアルゴリズムを開発した。
本研究では,様々な課題の画像条件下でのSPADの高速映像を多種多種に含む新しいデータセットを提案する。
論文 参考訳(メタデータ) (2024-10-30T17:30:35Z) - Splatter Image: Ultra-Fast Single-View 3D Reconstruction [67.96212093828179]
Splatter ImageはGaussian Splattingをベースにしており、複数の画像から3Dシーンを高速かつ高品質に再現することができる。
テスト時に38FPSでフィードフォワードで再構成を行うニューラルネットワークを学習する。
いくつかの総合、実、マルチカテゴリ、大規模ベンチマークデータセットにおいて、トレーニング中にPSNR、LPIPS、その他のメトリクスでより良い結果を得る。
論文 参考訳(メタデータ) (2023-12-20T16:14:58Z) - Graph-based Asynchronous Event Processing for Rapid Object Recognition [59.112755601918074]
イベントカメラは、各イベントがピクセル位置、トリガ時間、明るさの極性が変化するような非同期イベントストリームをキャプチャする。
イベントカメラのための新しいグラフベースのフレームワーク、SlideGCNを紹介した。
当社のアプローチでは、データをイベント単位で効率的に処理し、内部でグラフの構造を維持しながら、イベントデータの低レイテンシ特性を解放することが可能です。
論文 参考訳(メタデータ) (2023-08-28T08:59:57Z) - Deep Dynamic Scene Deblurring from Optical Flow [53.625999196063574]
汚れは視覚的により快適な写真を提供し、写真がより便利になる。
非均一な曖昧さを数学的にモデル化することは困難である。
我々は,難解な特徴から鮮明な画像を復元する畳み込みニューラルネットワーク(CNN)を開発した。
論文 参考訳(メタデータ) (2023-01-18T06:37:21Z) - Novel Consistency Check For Fast Recursive Reconstruction Of
Non-Regularly Sampled Video Data [1.2891210250935146]
クォーターサンプリングは、ピクセル数を増やすことなく高解像度画像の取得を可能にする新しいセンサー設計である。
ここでは、以前のフレームで測定された画素を現在のフレームに投影し、その再構成を支援する。
運動ベクトルのいくつかは誤りである可能性があるため、適切な整合性検査を行うことが重要である。
論文 参考訳(メタデータ) (2022-03-17T09:46:54Z) - Image Reconstruction from Events. Why learn it? [11.773972029187433]
動き推定の連立問題への取り組みが,線形逆問題としてイベントベース画像再構成のモデル化につながることを示す。
そこで本稿では,古典的・学習的な画像先行情報を用いて,その問題を解決し,再構成画像からアーティファクトを除去する手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T14:01:09Z) - Beyond Joint Demosaicking and Denoising: An Image Processing Pipeline
for a Pixel-bin Image Sensor [0.883717274344425]
Pixel binningは、スマートフォンカメラのハードウェア制限に対処する最も顕著なソリューションの1つだと考えられている。
本稿では,新しい学習手法を導入することで,このような画像センサ上でのJDD(Joint Desaicing and Denoising)の課題に対処する。
提案手法は,視覚可能な画像を生成するための2つの新しい知覚損失を含む多項目的関数によって導かれる。
論文 参考訳(メタデータ) (2021-04-19T15:41:28Z) - Combining Events and Frames using Recurrent Asynchronous Multimodal
Networks for Monocular Depth Prediction [51.072733683919246]
複数のセンサからの非同期および不規則なデータを処理するために、リカレント非同期マルチモーダル(RAM)ネットワークを導入する。
従来のRNNにインスパイアされたRAMネットワークは、非同期に更新され、予測を生成するためにいつでもクエリできる隠れ状態を維持している。
平均深度絶対誤差において,最先端手法を最大30%改善することを示す。
論文 参考訳(メタデータ) (2021-02-18T13:24:35Z) - Real-time Classification from Short Event-Camera Streams using
Input-filtering Neural ODEs [17.764474158122038]
イベントベースのカメラは、人間の視覚システムにインスパイアされた、新しくて効率的なセンサーである。
本稿では,DVSカメラからのイベント,強度変化ストリーム,空間座標の直接利用を提案する。
このシーケンスは、新しいエンプレ同期RNN様アーキテクチャ、入力フィルタリングニューラルネットワーク(INODE)の入力として使用される。
論文 参考訳(メタデータ) (2020-04-07T06:58:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。