論文の概要: Multi-Event-Camera Depth Estimation and Outlier Rejection by Refocused
Events Fusion
- arxiv url: http://arxiv.org/abs/2207.10494v1
- Date: Thu, 21 Jul 2022 14:19:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 13:48:32.506103
- Title: Multi-Event-Camera Depth Estimation and Outlier Rejection by Refocused
Events Fusion
- Title(参考訳): リフォーカスイベント融合によるマルチイベントカメラ深度推定と異常拒否
- Authors: Suman Ghosh and Guillermo Gallego
- Abstract要約: イベントカメラはバイオインスパイアされたセンサーで、従来のカメラよりも有利だ。
SLAMにおけるイベントベースステレオ3D再構成の課題に対処する。
我々は融合理論を開発し、それをマルチカメラ3D再構成アルゴリズムの設計に適用する。
- 参考スコア(独自算出の注目度): 14.15744053080529
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras are bio-inspired sensors that offer advantages over traditional
cameras. They work asynchronously, sampling the scene with microsecond
resolution and producing a stream of brightness changes. This unconventional
output has sparked novel computer vision methods to unlock the camera's
potential. We tackle the problem of event-based stereo 3D reconstruction for
SLAM. Most event-based stereo methods try to exploit the camera's high temporal
resolution and event simultaneity across cameras to establish matches and
estimate depth. By contrast, we investigate how to estimate depth without
explicit data association by fusing Disparity Space Images (DSIs) originated in
efficient monocular methods. We develop fusion theory and apply it to design
multi-camera 3D reconstruction algorithms that produce state-of-the-art
results, as we confirm by comparing against four baseline methods and testing
on a variety of available datasets.
- Abstract(参考訳): イベントカメラはバイオインスパイアされたセンサーで、従来のカメラよりも有利だ。
それらは非同期に動作し、マイクロ秒の解像度でシーンをサンプリングし、明るさ変化のストリームを生成する。
この非日常的な出力は、カメラの可能性を解き明かす新しいコンピュータビジョン手法を生み出した。
SLAMにおけるイベントベースステレオ3D再構成の問題に取り組む。
ほとんどのイベントベースのステレオ手法は、カメラ間の高時間分解能とイベント同時性を利用して一致を確立し、深さを推定する。
対照的に,効率の良い単眼法を起源とする不一致空間画像(dsis)を用いて,明示的なデータ結合を伴わずに深さを推定する方法を検討する。
我々は、融合理論を開発し、これを最新結果を生成するマルチカメラ3次元再構成アルゴリズムの設計に適用し、4つのベースライン法と比較し、利用可能な様々なデータセット上でテストすることで確認する。
関連論文リスト
- Boost 3D Reconstruction using Diffusion-based Monocular Camera Calibration [34.18403601269181]
DM-Calibは単一の入力画像からピンホールカメラ固有のパラメータを推定するための拡散に基づくアプローチである。
我々は、カメラ画像と呼ばれる新しい画像ベース表現を導入し、数値カメラの内在を無意味に符号化する。
一つのRGB入力からカメラ画像を生成するための安定拡散モデルを微調整することにより、RANSAC操作を介してカメラ固有の特徴を抽出することができる。
論文 参考訳(メタデータ) (2024-11-26T09:04:37Z) - EF-3DGS: Event-Aided Free-Trajectory 3D Gaussian Splatting [76.02450110026747]
生物学的ビジョンにインスパイアされたイベントカメラは、時間分解能の高い画素の強度を非同期に記録する。
本稿では,イベントカメラの利点を3DGSにシームレスに統合するイベント支援フリートラジェクトリ3DGSを提案する。
提案手法を,パブリックタンクとテンプルのベンチマークと,新たに収集した実世界のデータセットであるRealEv-DAVISで評価した。
論文 参考訳(メタデータ) (2024-10-20T13:44:24Z) - SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - Dense Voxel 3D Reconstruction Using a Monocular Event Camera [5.599072208069752]
イベントカメラは、従来のフレームベースのカメラよりも多くの利点がある。
それらのVRアプリケーションのための3D再構成の応用は、あまり研究されていない。
単一イベントカメラのみを用いた高密度3次元再構成手法を提案する。
論文 参考訳(メタデータ) (2023-09-01T10:46:57Z) - Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z) - Event-based Stereo Depth Estimation from Ego-motion using Ray Density
Fusion [14.15744053080529]
イベントカメラは、人間の網膜を模倣するバイオインスパイアされたセンサーで、シーンの明るさの変化に反応する。
本研究は、後方投影光線密度を融合させることにより、明示的なデータアソシエーションを伴わずにステレオイベントカメラから深度を推定する方法を検討する。
論文 参考訳(メタデータ) (2022-10-17T10:33:47Z) - MEFNet: Multi-scale Event Fusion Network for Motion Deblurring [62.60878284671317]
従来のフレームベースのカメラは、長時間露光のために必然的に動きがぼやけている。
バイオインスパイアされたカメラの一種として、イベントカメラは、高時間分解能で非同期な方法で強度変化を記録する。
本稿では,イベントベースの画像劣化問題を再考し,これをエンドツーエンドの2段階画像復元ネットワークに展開する。
論文 参考訳(メタデータ) (2021-11-30T23:18:35Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Event-based Stereo Visual Odometry [42.77238738150496]
ステレオ・イベント・ベースのカメラ・リグが取得したデータから視覚計測の問題に対する解決策を提案する。
我々は,シンプルかつ効率的な表現を用いて,ステレオイベントベースのデータの時間的一貫性を最大化する。
論文 参考訳(メタデータ) (2020-07-30T15:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。