論文の概要: Event-based Shape from Polarization
- arxiv url: http://arxiv.org/abs/2301.06855v2
- Date: Tue, 11 Apr 2023 14:50:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 18:20:19.433587
- Title: Event-based Shape from Polarization
- Title(参考訳): 偏光からのイベントベース形状
- Authors: Manasi Muglikar, Leonard Bauersfeld, Diederik Paul Moeys, Davide
Scaramuzza
- Abstract要約: SfP(Shape-from-Polarization)の最先端のソリューションは、スピードレゾリューションのトレードオフに悩まされている。
私たちはイベントカメラを使ってこのトレードオフに取り組みます。
イベントカメラの前で高速に回転する線形偏光器からなる装置を提案する。
- 参考スコア(独自算出の注目度): 43.483063713471935
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: State-of-the-art solutions for Shape-from-Polarization (SfP) suffer from a
speed-resolution tradeoff: they either sacrifice the number of polarization
angles measured or necessitate lengthy acquisition times due to framerate
constraints, thus compromising either accuracy or latency. We tackle this
tradeoff using event cameras. Event cameras operate at microseconds resolution
with negligible motion blur, and output a continuous stream of events that
precisely measures how light changes over time asynchronously. We propose a
setup that consists of a linear polarizer rotating at high-speeds in front of
an event camera. Our method uses the continuous event stream caused by the
rotation to reconstruct relative intensities at multiple polarizer angles.
Experiments demonstrate that our method outperforms physics-based baselines
using frames, reducing the MAE by 25% in synthetic and real-world dataset. In
the real world, we observe, however, that the challenging conditions (i.e.,
when few events are generated) harm the performance of physics-based solutions.
To overcome this, we propose a learning-based approach that learns to estimate
surface normals even at low event-rates, improving the physics-based approach
by 52% on the real world dataset. The proposed system achieves an acquisition
speed equivalent to 50 fps (>twice the framerate of the commercial polarization
sensor) while retaining the spatial resolution of 1MP. Our evaluation is based
on the first large-scale dataset for event-based SfP
- Abstract(参考訳): SfP(Shape-from-Polarization)の最先端のソリューションは、フレームレートの制約によって測定された偏極角の数を犠牲にするか、長い取得時間を必要とします。
私たちはイベントカメラを使ってこのトレードオフに取り組む。
イベントカメラはマイクロ秒の解像度で動作し、時間の経過とともに光が非同期にどのように変化するかを正確に測定する連続的なイベントストリームを出力する。
本研究では,イベントカメラの前で高速回転する線形偏光子からなるセットアップを提案する。
本手法では, 回転による連続イベントストリームを用いて, 複数の偏光子角度で相対強度を復元する。
実験により,本手法はフレームを用いた物理ベースラインよりも優れた性能を示し,合成および実世界のデータセットにおいてMAEを25%削減する。
しかし、現実の世界では、難解な条件(事象がほとんど発生しない場合)が物理学に基づく解のパフォーマンスを損なうことが観察される。
これを解決するために,低イベントレートでも表面の正規性を推定し,物理に基づくアプローチを実世界のデータセット上で52%改善する学習ベースアプローチを提案する。
提案システムは,空間解像度1MPを維持しつつ,50fps(→商用偏光センサのフレームレート2倍)の取得速度を実現する。
我々の評価は、イベントベースのSfPのための最初の大規模データセットに基づいている。
関連論文リスト
- ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras [33.81592783496106]
イベントベースのビジュアルオドメトリーは、トラッキングとサブプロブレムを並列にマッピングすることを目的としている。
イベントベースのステレオビジュアル慣性オドメトリーシステムを構築した。
論文 参考訳(メタデータ) (2024-10-12T05:35:27Z) - Event-based Background-Oriented Schlieren [18.2247510082534]
シュリーレンイメージング(Schlieren imaging)は、空気や水などの透明な媒体の流れを粒子の種を作らずに観察する光学技術である。
イベントカメラは、バイオインスパイアされたセンシング原理により、そのような制限を克服する潜在的な利点(高ダイナミックレンジ、高時間分解能、データ効率)を提供する。
本稿では,イベントデータとシュリエレンを結合する最初の理論的解析を行い,イベントとフレームを用いた空気対流の知覚手法を提案する。
論文 参考訳(メタデータ) (2023-11-01T10:57:20Z) - A 5-Point Minimal Solver for Event Camera Relative Motion Estimation [47.45081895021988]
本稿では,直線パラメータと線形カメラ速度予測を推定し,複数の直線を考慮した場合の1つの平均線形速度に融合できる新しい最小5点解法を提案する。
本手法は,既存の閉形式解法が23%から70%しか達成できない線形速度の推定において,連続的に100%の成功率を達成する。
論文 参考訳(メタデータ) (2023-09-29T08:30:18Z) - Event-aided Direct Sparse Odometry [54.602311491827805]
本稿では,イベントとフレームを用いた直接単眼視覚計測法であるEDSを紹介する。
我々のアルゴリズムは、イベント生成モデルを利用して、フレーム間のブラインドタイムにおけるカメラの動きを追跡する。
EDSは直接アプローチでイベントとフレームを使用して6-DOF VOを実行する最初の方法である。
論文 参考訳(メタデータ) (2022-04-15T20:40:29Z) - Real-Time Optical Flow for Vehicular Perception with Low- and
High-Resolution Event Cameras [3.845877724862319]
イベントカメラは、観測されたシーンにおける照明の変化を捉え、画像を作成するために光を蓄積する。
我々は,低解像度および高解像度のイベントカメラを用いて,光学的流れをリアルタイムに計算するための最適化フレームワークを提案する。
我々は,低解像度運転シーケンスと高解像度運転シーケンスの両方に対するアプローチを評価し,現状よりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2021-12-20T15:09:20Z) - Dense Optical Flow from Event Cameras [55.79329250951028]
本稿では,イベントカメラからの高密度光フロー推定に特徴相関と逐次処理を導入することを提案する。
提案手法は、高密度光流を計算し、MVSEC上での終点誤差を23%削減する。
論文 参考訳(メタデータ) (2021-08-24T07:39:08Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。