論文の概要: Event-based Stereo Depth Estimation from Ego-motion using Ray Density
Fusion
- arxiv url: http://arxiv.org/abs/2210.08927v1
- Date: Mon, 17 Oct 2022 10:33:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 21:06:50.803280
- Title: Event-based Stereo Depth Estimation from Ego-motion using Ray Density
Fusion
- Title(参考訳): 線密度融合を用いたエゴモーションからのイベントベースステレオ深さ推定
- Authors: Suman Ghosh and Guillermo Gallego
- Abstract要約: イベントカメラは、人間の網膜を模倣するバイオインスパイアされたセンサーで、シーンの明るさの変化に反応する。
本研究は、後方投影光線密度を融合させることにより、明示的なデータアソシエーションを伴わずにステレオイベントカメラから深度を推定する方法を検討する。
- 参考スコア(独自算出の注目度): 14.15744053080529
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event cameras are bio-inspired sensors that mimic the human retina by
responding to brightness changes in the scene. They generate asynchronous
spike-based outputs at microsecond resolution, providing advantages over
traditional cameras like high dynamic range, low motion blur and power
efficiency. Most event-based stereo methods attempt to exploit the high
temporal resolution of the camera and the simultaneity of events across cameras
to establish matches and estimate depth. By contrast, this work investigates
how to estimate depth from stereo event cameras without explicit data
association by fusing back-projected ray densities, and demonstrates its
effectiveness on head-mounted camera data, which is recorded in an egocentric
fashion. Code and video are available at https://github.com/tub-rip/dvs_mcemvs
- Abstract(参考訳): イベントカメラは、人間の網膜を模倣するバイオインスパイアされたセンサーで、シーンの明るさの変化に反応する。
マイクロ秒の解像度で非同期スパイクベースの出力を生成し、高ダイナミックレンジ、低モーションのぼかし、電力効率といった従来のカメラよりも利点がある。
ほとんどのイベントベースのステレオ手法は、カメラの高時間分解能と、カメラ間のイベントの同時性を利用して一致を確立し、深さを推定する。
これとは対照的に,バックプロジェクションされたレイ密度を用いて,ステレオイベントカメラの奥行き推定を明示的なデータ結合を伴わずに行う方法の検討を行い,エゴセントリックで記録したヘッドマウントカメラデータの有効性を示す。
コードとビデオはhttps://github.com/tub-rip/dvs_mcemvsで入手できる。
関連論文リスト
- SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - Video Frame Interpolation with Stereo Event and Intensity Camera [40.07341828127157]
高品質な中間フレームを生成するための新しいステレオイベントベースVFIネットワーク(SE-VFI-Net)を提案する。
我々は,正確な光学的流れと不均一性推定を実現するために,融合した特徴を利用する。
提案するSEVFI-Netは最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2023-07-17T04:02:00Z) - Multi-Event-Camera Depth Estimation and Outlier Rejection by Refocused
Events Fusion [14.15744053080529]
イベントカメラはバイオインスパイアされたセンサーで、従来のカメラよりも有利だ。
SLAMにおけるイベントベースステレオ3D再構成の課題に対処する。
我々は融合理論を開発し、それをマルチカメラ3D再構成アルゴリズムの設計に適用する。
論文 参考訳(メタデータ) (2022-07-21T14:19:39Z) - MEFNet: Multi-scale Event Fusion Network for Motion Deblurring [62.60878284671317]
従来のフレームベースのカメラは、長時間露光のために必然的に動きがぼやけている。
バイオインスパイアされたカメラの一種として、イベントカメラは、高時間分解能で非同期な方法で強度変化を記録する。
本稿では,イベントベースの画像劣化問題を再考し,これをエンドツーエンドの2段階画像復元ネットワークに展開する。
論文 参考訳(メタデータ) (2021-11-30T23:18:35Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Event-based Stereo Visual Odometry [42.77238738150496]
ステレオ・イベント・ベースのカメラ・リグが取得したデータから視覚計測の問題に対する解決策を提案する。
我々は,シンプルかつ効率的な表現を用いて,ステレオイベントベースのデータの時間的一貫性を最大化する。
論文 参考訳(メタデータ) (2020-07-30T15:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。