論文の概要: Real-Time Optical Flow for Vehicular Perception with Low- and
High-Resolution Event Cameras
- arxiv url: http://arxiv.org/abs/2112.10591v1
- Date: Mon, 20 Dec 2021 15:09:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-21 21:33:06.838687
- Title: Real-Time Optical Flow for Vehicular Perception with Low- and
High-Resolution Event Cameras
- Title(参考訳): 低解像度・高分解能イベントカメラを用いた車両知覚のための実時間光流れ
- Authors: Vincent Brebion and Julien Moreau and Franck Davoine
- Abstract要約: イベントカメラは、観測されたシーンにおける照明の変化を捉え、画像を作成するために光を蓄積する。
我々は,低解像度および高解像度のイベントカメラを用いて,光学的流れをリアルタイムに計算するための最適化フレームワークを提案する。
我々は,低解像度運転シーケンスと高解像度運転シーケンスの両方に対するアプローチを評価し,現状よりも優れた結果が得られることを示す。
- 参考スコア(独自算出の注目度): 3.845877724862319
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event cameras capture changes of illumination in the observed scene rather
than accumulating light to create images. Thus, they allow for applications
under high-speed motion and complex lighting conditions, where traditional
framebased sensors show their limits with blur and over- or underexposed
pixels. Thanks to these unique properties, they represent nowadays an highly
attractive sensor for ITS-related applications. Event-based optical flow (EBOF)
has been studied following the rise in popularity of these neuromorphic
cameras. The recent arrival of high-definition neuromorphic sensors, however,
challenges the existing approaches, because of the increased resolution of the
events pixel array and a much higher throughput. As an answer to these points,
we propose an optimized framework for computing optical flow in real-time with
both low- and high-resolution event cameras. We formulate a novel dense
representation for the sparse events flow, in the form of the "inverse
exponential distance surface". It serves as an interim frame, designed for the
use of proven, state-of-the-art frame-based optical flow computation methods.
We evaluate our approach on both low- and high-resolution driving sequences,
and show that it often achieves better results than the current state of the
art, while also reaching higher frame rates, 250Hz at 346 x 260 pixels and 77Hz
at 1280 x 720 pixels.
- Abstract(参考訳): イベントカメラは、観測されたシーンにおける照明の変化を捉えます。
これにより、高速モーションや複雑な照明条件下での応用が可能となり、従来のフレームベースのセンサーはぼやけや過度に露出されたピクセルで限界を示す。
これらのユニークな性質のおかげで、現在はITS関連のアプリケーションにとって非常に魅力的なセンサーとなっている。
イベントベース光学フロー(EBOF)は,これらのニューロモルフィックカメラの普及に伴い研究されている。
しかし、近年の高解像度ニューロモルフィックセンサーの登場は、イベントピクセルアレイの解像度の増大とスループットの向上により、既存のアプローチに挑戦している。
そこで,本稿では,低解像度と高分解能のイベントカメラを用いて,光フローをリアルタイムに計算するための最適化フレームワークを提案する。
我々は「逆指数的距離曲面」という形で、スパース事象流の新たな密度表現を定式化する。
中間フレームとして機能し、証明された最先端のフレームベースの光フロー計算法のために設計された。
提案手法を低解像度および高解像度の駆動シーケンスで評価した結果,現行技術よりも良好な結果が得られた一方で,フレームレートが250Hz,346×260ピクセル,77Hz,1280×720ピクセルであった。
関連論文リスト
- Deblur e-NeRF: NeRF from Motion-Blurred Events under High-speed or Low-light Conditions [56.84882059011291]
動き赤外イベントからぼやけた最小のNeRFを再構成する新しい手法であるDeblur e-NeRFを提案する。
また,大きなテクスチャレスパッチの正規化を改善するために,新しいしきい値正規化全変動損失を導入する。
論文 参考訳(メタデータ) (2024-09-26T15:57:20Z) - Event-based Background-Oriented Schlieren [18.2247510082534]
シュリーレンイメージング(Schlieren imaging)は、空気や水などの透明な媒体の流れを粒子の種を作らずに観察する光学技術である。
イベントカメラは、バイオインスパイアされたセンシング原理により、そのような制限を克服する潜在的な利点(高ダイナミックレンジ、高時間分解能、データ効率)を提供する。
本稿では,イベントデータとシュリエレンを結合する最初の理論的解析を行い,イベントとフレームを用いた空気対流の知覚手法を提案する。
論文 参考訳(メタデータ) (2023-11-01T10:57:20Z) - Robust e-NeRF: NeRF from Sparse & Noisy Events under Non-Uniform Motion [67.15935067326662]
イベントカメラは低電力、低レイテンシ、高時間解像度、高ダイナミックレンジを提供する。
NeRFは効率的かつ効果的なシーン表現の第一候補と見なされている。
本稿では,移動イベントカメラからNeRFを直接かつ堅牢に再構成する新しい手法であるRobust e-NeRFを提案する。
論文 参考訳(メタデータ) (2023-09-15T17:52:08Z) - Panoramas from Photons [22.437940699523082]
低光域や高ダイナミックレンジといった困難な条件下での極端なシーンの動きを推定できる手法を提案する。
本手法は, ファクト後のフレームを階層的にグループ化し, 集約することに依存する。
高速動作と極低光下での高画質パノラマの創出と,カスタム単光子カメラの試作による超高分解能化を実証した。
論文 参考訳(メタデータ) (2023-09-07T16:07:31Z) - An Asynchronous Linear Filter Architecture for Hybrid Event-Frame Cameras [9.69495347826584]
本稿では,HDRビデオ再構成と空間畳み込みのための非同期線形フィルタアーキテクチャを提案する。
提案したAKFパイプラインは、絶対強度誤差(69.4%削減)と画像類似度指数(平均35.5%改善)の両方において、他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-03T12:37:59Z) - A direct time-of-flight image sensor with in-pixel surface detection and
dynamic vision [0.0]
3DフラッシュLIDARは、従来の走査型LIDARシステムに代わるもので、コンパクトなフォームファクターで正確な深度イメージングを約束する。
我々は,64x32ピクセル (256x128 SPAD) dToF イメージラを組込みヒストグラムを用いた画素を用いて,これらの制限を克服する。
これにより出力データフレームのサイズが大幅に小さくなり、10kFPS範囲の最大フレームレートや100kFPSの直接深度読み取りが可能となる。
論文 参考訳(メタデータ) (2022-09-23T14:38:00Z) - E-NeRF: Neural Radiance Fields from a Moving Event Camera [83.91656576631031]
理想的な画像からニューラルレイディアンス場(NeRF)を推定する手法はコンピュータビジョンコミュニティで広く研究されている。
本稿では,高速なイベントカメラからNeRFの形式でボリュームシーンを推定する最初の方法であるE-NeRFを提案する。
論文 参考訳(メタデータ) (2022-08-24T04:53:32Z) - Are High-Resolution Event Cameras Really Needed? [62.70541164894224]
低照度条件や高速環境では、低解像度カメラは高解像度カメラより優れ、帯域幅は大幅に小さくなる。
この主張は,高解像度のイベントカメラが画素当たりのイベントレートが高いことを示す実証的証拠と理論的証拠の両方を提示する。
多くの場合、高解像度のイベントカメラは、これらの条件下では低解像度のセンサーに比べてタスク性能が低い。
論文 参考訳(メタデータ) (2022-03-28T12:06:20Z) - Globally-Optimal Event Camera Motion Estimation [30.79931004393174]
イベントカメラは、HDR条件でよく機能し、時間分解能の高いバイオインスパイアされたセンサーである。
イベントカメラは、非同期ピクセルレベルの変更を測定し、高度に識別されたフォーマットでそれらを返す。
論文 参考訳(メタデータ) (2022-03-08T08:24:22Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。