論文の概要: Event-Based Dense Reconstruction Pipeline
- arxiv url: http://arxiv.org/abs/2203.12270v1
- Date: Wed, 23 Mar 2022 08:37:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 01:40:36.255318
- Title: Event-Based Dense Reconstruction Pipeline
- Title(参考訳): イベントベースDenseリコンストラクションパイプライン
- Authors: Kun Xiao, Guohui Wang, Yi Chen, Jinghong Nan, Yongfeng Xie
- Abstract要約: イベントカメラは、従来のカメラとは異なる新しいタイプのセンサーである。
深層学習は、イベントからの強度画像の再構成に使用される。
動きからの構造(SfM)は、カメラ固有の、外在的な、スパースな点雲を推定するために用いられる。
- 参考スコア(独自算出の注目度): 5.341354397748495
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Event cameras are a new type of sensors that are different from traditional
cameras. Each pixel is triggered asynchronously by event. The trigger event is
the change of the brightness irradiated on the pixel. If the increment or
decrement of brightness is higher than a certain threshold, an event is output.
Compared with traditional cameras, event cameras have the advantages of high
dynamic range and no motion blur. Since events are caused by the apparent
motion of intensity edges, the majority of 3D reconstructed maps consist only
of scene edges, i.e., semi-dense maps, which is not enough for some
applications. In this paper, we propose a pipeline to realize event-based dense
reconstruction. First, deep learning is used to reconstruct intensity images
from events. And then, structure from motion (SfM) is used to estimate camera
intrinsic, extrinsic and sparse point cloud. Finally, multi-view stereo (MVS)
is used to complete dense reconstruction.
- Abstract(参考訳): イベントカメラは、従来のカメラとは異なる新しいタイプのセンサーである。
各ピクセルはイベントによって非同期に起動される。
トリガーイベントは、画素に照射された輝度の変化である。
輝度のインクリメントまたはデクリメントが一定の閾値よりも高い場合は、イベントが出力される。
従来のカメラと比較して、イベントカメラは高いダイナミックレンジの利点があり、動きのぼやけがない。
イベントは強度エッジの見かけの動きによって引き起こされるため、ほとんどの3d再構成マップはシーンエッジ、すなわちセミセンスマップのみで構成されており、一部のアプリケーションでは不十分である。
本稿では,イベントベース高密度再構成を実現するパイプラインを提案する。
まず、深層学習を用いてイベントからの強度画像の再構成を行う。
そして、structure from motion (sfm) は、カメラ内在性、外在性、スパースポイント雲の推定に使用される。
最後に、多視点ステレオ(MVS)を用いて高密度再構成を行う。
関連論文リスト
- EF-3DGS: Event-Aided Free-Trajectory 3D Gaussian Splatting [76.02450110026747]
生物学的ビジョンにインスパイアされたイベントカメラは、時間分解能の高い画素の強度を非同期に記録する。
本稿では,イベントカメラの利点を3DGSにシームレスに統合するイベント支援フリートラジェクトリ3DGSを提案する。
提案手法を,パブリックタンクとテンプルのベンチマークと,新たに収集した実世界のデータセットであるRealEv-DAVISで評価した。
論文 参考訳(メタデータ) (2024-10-20T13:44:24Z) - IncEventGS: Pose-Free Gaussian Splatting from a Single Event Camera [7.515256982860307]
IncEventGSは、単一のイベントカメラを備えたインクリメンタルな3Dガウススプレイティング再構成アルゴリズムである。
我々は,IncEventGSにおける従来のSLAMパイプラインの追跡とマッピングのパラダイムを活用する。
論文 参考訳(メタデータ) (2024-10-10T16:54:23Z) - Deblur e-NeRF: NeRF from Motion-Blurred Events under High-speed or Low-light Conditions [56.84882059011291]
動き赤外イベントからぼやけた最小のNeRFを再構成する新しい手法であるDeblur e-NeRFを提案する。
また,大きなテクスチャレスパッチの正規化を改善するために,新しいしきい値正規化全変動損失を導入する。
論文 参考訳(メタデータ) (2024-09-26T15:57:20Z) - Temporal-Mapping Photography for Event Cameras [5.838762448259289]
イベントカメラは、従来の強度フレームではなく、連続したイベントストリームとして明るさの変化をキャプチャする。
我々は静的な場面で静止イベントカメラを用いて高密度画像変換を行う。
論文 参考訳(メタデータ) (2024-03-11T05:29:46Z) - Dense Voxel 3D Reconstruction Using a Monocular Event Camera [5.599072208069752]
イベントカメラは、従来のフレームベースのカメラよりも多くの利点がある。
それらのVRアプリケーションのための3D再構成の応用は、あまり研究されていない。
単一イベントカメラのみを用いた高密度3次元再構成手法を提案する。
論文 参考訳(メタデータ) (2023-09-01T10:46:57Z) - Event-based Camera Tracker by $\nabla$t NeRF [11.572930535988325]
ニューラルレイディアンス場(NeRF)として表現されるシーンのスパース事象と時間勾配の誤差を最小化することにより、カメラのポーズを復元できることを示す。
スパースイベントの観測を用いてポーズ更新を実現するイベントベースのカメラポーズトラッキングフレームワークTeGRAを提案する。
論文 参考訳(メタデータ) (2023-04-07T16:03:21Z) - Multi-Event-Camera Depth Estimation and Outlier Rejection by Refocused
Events Fusion [14.15744053080529]
イベントカメラはバイオインスパイアされたセンサーで、従来のカメラよりも有利だ。
SLAMにおけるイベントベースステレオ3D再構成の課題に対処する。
我々は融合理論を開発し、それをマルチカメラ3D再構成アルゴリズムの設計に適用する。
論文 参考訳(メタデータ) (2022-07-21T14:19:39Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - Combining Events and Frames using Recurrent Asynchronous Multimodal
Networks for Monocular Depth Prediction [51.072733683919246]
複数のセンサからの非同期および不規則なデータを処理するために、リカレント非同期マルチモーダル(RAM)ネットワークを導入する。
従来のRNNにインスパイアされたRAMネットワークは、非同期に更新され、予測を生成するためにいつでもクエリできる隠れ状態を維持している。
平均深度絶対誤差において,最先端手法を最大30%改善することを示す。
論文 参考訳(メタデータ) (2021-02-18T13:24:35Z) - EventHands: Real-Time Neural 3D Hand Reconstruction from an Event Stream [80.15360180192175]
単眼ビデオからの3d手ポーズ推定は、長年の課題である。
我々は1つのイベントカメラ、すなわち明るさ変化に反応する非同期視覚センサを使用して、初めてそれに対処する。
従来,単一のrgbカメラや深度カメラでは表示されなかった特徴がある。
論文 参考訳(メタデータ) (2020-12-11T16:45:34Z) - EventSR: From Asynchronous Events to Image Reconstruction, Restoration,
and Super-Resolution via End-to-End Adversarial Learning [75.17497166510083]
イベントカメラは強度の変化を感知し、従来のカメラよりも多くの利点がある。
イベントストリームからの強度画像の再構成手法が提案されている。
出力は依然として低解像度(LR)、ノイズ、非現実的である。
本研究では、イベントストリームからLR画像を再構成し、画像品質を高め、EventSRと呼ばれる拡張イメージをアップサンプリングする、新しいエンドツーエンドパイプラインを提案する。
論文 参考訳(メタデータ) (2020-03-17T10:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。