論文の概要: ESL: Event-based Structured Light
- arxiv url: http://arxiv.org/abs/2111.15510v1
- Date: Tue, 30 Nov 2021 15:47:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 15:18:59.724330
- Title: ESL: Event-based Structured Light
- Title(参考訳): ESL:イベントベースの構造化光
- Authors: Manasi Muglikar, Guillermo Gallego, Davide Scaramuzza
- Abstract要約: イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
- 参考スコア(独自算出の注目度): 62.77144631509817
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras are bio-inspired sensors providing significant advantages over
standard cameras such as low latency, high temporal resolution, and high
dynamic range. We propose a novel structured-light system using an event camera
to tackle the problem of accurate and high-speed depth sensing. Our setup
consists of an event camera and a laser-point projector that uniformly
illuminates the scene in a raster scanning pattern during 16 ms. Previous
methods match events independently of each other, and so they deliver noisy
depth estimates at high scanning speeds in the presence of signal latency and
jitter. In contrast, we optimize an energy function designed to exploit event
correlations, called spatio-temporal consistency. The resulting method is
robust to event jitter and therefore performs better at higher scanning speeds.
Experiments demonstrate that our method can deal with high-speed motion and
outperform state-of-the-art 3D reconstruction methods based on event cameras,
reducing the RMSE by 83% on average, for the same acquisition time.
- Abstract(参考訳): イベントカメラはバイオインスパイアされたセンサーであり、低レイテンシ、高時間分解能、高ダイナミックレンジなどの標準カメラに対する大きな利点を提供する。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
この装置は16ミリ秒間,ラスタ走査パターンでシーンを均一に照射するイベントカメラとレーザポイントプロジェクタから構成されるので,信号遅延やジッタの存在下では,高速でノイズ深度推定を行うことができる。
対照的に、時空間整合性と呼ばれる事象相関を利用したエネルギー関数を最適化する。
この手法はイベントジッタに対して堅牢であり、より高い走査速度で性能が向上する。
提案手法は,イベントカメラを用いた高速動作と最先端の3d再構成手法を上回って,rmseを平均83%削減し,同時取得時間を短縮できることが実証された。
関連論文リスト
- E-3DGS: Gaussian Splatting with Exposure and Motion Events [29.042018288378447]
イベントを動作と露出に分割するイベントベースの新しいアプローチであるE-3DGSを提案する。
露光イベントと3DGSの新たな統合を導入し,明示的なシーン表現を高品質に再現する。
提案手法は,NeRF法よりもコスト効率が高く,イベントベースのNeRFよりも再現性が高い。
論文 参考訳(メタデータ) (2024-10-22T13:17:20Z) - Deblur e-NeRF: NeRF from Motion-Blurred Events under High-speed or Low-light Conditions [56.84882059011291]
動き赤外イベントからぼやけた最小のNeRFを再構成する新しい手法であるDeblur e-NeRFを提案する。
また,大きなテクスチャレスパッチの正規化を改善するために,新しいしきい値正規化全変動損失を導入する。
論文 参考訳(メタデータ) (2024-09-26T15:57:20Z) - Seeing Motion at Nighttime with an Event Camera [17.355331119296782]
イベントカメラは、高時間分解能(マイクロ秒)と高ダイナミックレンジ(120dB)で動的に反応する
主に学習可能なイベントタイムスタンプキャリブレーションモジュール(LETC)を含む夜間イベント再構築ネットワーク(NER-Net)を提案する。
我々は、64,200の空間的および時間的に整列した画像GTと低照度イベントを含む、同軸イメージングにより、ペア化された実光イベントデータセット(RLED)を構築した。
論文 参考訳(メタデータ) (2024-04-18T03:58:27Z) - Event Cameras Meet SPADs for High-Speed, Low-Bandwidth Imaging [25.13346470561497]
イベントカメラと単光雪崩ダイオード(SPAD)センサーは、従来のカメラに代わる有望な代替手段として登場した。
これらの特性は相補的であり,低帯域幅で低照度かつ高速な画像再構成を実現するのに有効であることを示す。
論文 参考訳(メタデータ) (2024-04-17T16:06:29Z) - Event-based Motion-Robust Accurate Shape Estimation for Mixed
Reflectance Scenes [17.446182782836747]
本稿では,複合反射シーンの高速3次元イメージングを高精度に実現したイベントベース構造化光システムを提案する。
我々は、測定された反射を本質的に拡散、2バウンススペクトル、その他の多重バウンス反射に分解できるエピポーラ制約を用いる。
このシステムは,500,mu$mの精度で混合反射シーンの高速かつモーションロバストな再構成を実現する。
論文 参考訳(メタデータ) (2023-11-16T08:12:10Z) - Robust e-NeRF: NeRF from Sparse & Noisy Events under Non-Uniform Motion [67.15935067326662]
イベントカメラは低電力、低レイテンシ、高時間解像度、高ダイナミックレンジを提供する。
NeRFは効率的かつ効果的なシーン表現の第一候補と見なされている。
本稿では,移動イベントカメラからNeRFを直接かつ堅牢に再構成する新しい手法であるRobust e-NeRFを提案する。
論文 参考訳(メタデータ) (2023-09-15T17:52:08Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - EV-Catcher: High-Speed Object Catching Using Low-latency Event-based
Neural Networks [107.62975594230687]
イベントカメラが優れており、高速移動物体の衝突位置を正確に推定するアプリケーションを実証する。
イベントデータを低レイテンシでエンコードするために,Binary Event History Image(BEHI)と呼ばれる軽量なイベント表現を導入する。
計算制約のある組込みプラットフォーム上でも最大13m/sの速さで, 異なる場所をターゲットとした球のキャッチにおいて, 81%の成功率を達成することができることを示す。
論文 参考訳(メタデータ) (2023-04-14T15:23:28Z) - Globally-Optimal Event Camera Motion Estimation [30.79931004393174]
イベントカメラは、HDR条件でよく機能し、時間分解能の高いバイオインスパイアされたセンサーである。
イベントカメラは、非同期ピクセルレベルの変更を測定し、高度に識別されたフォーマットでそれらを返す。
論文 参考訳(メタデータ) (2022-03-08T08:24:22Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。