論文の概要: Event-based Background-Oriented Schlieren
- arxiv url: http://arxiv.org/abs/2311.00434v1
- Date: Wed, 1 Nov 2023 10:57:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 13:53:08.195716
- Title: Event-based Background-Oriented Schlieren
- Title(参考訳): イベントベースバックグラウンド指向シュリーレン
- Authors: Shintaro Shiba, Friedhelm Hamann, Yoshimitsu Aoki, Guillermo Gallego
- Abstract要約: シュリーレンイメージング(Schlieren imaging)は、空気や水などの透明な媒体の流れを粒子の種を作らずに観察する光学技術である。
イベントカメラは、バイオインスパイアされたセンシング原理により、そのような制限を克服する潜在的な利点(高ダイナミックレンジ、高時間分解能、データ効率)を提供する。
本稿では,イベントデータとシュリエレンを結合する最初の理論的解析を行い,イベントとフレームを用いた空気対流の知覚手法を提案する。
- 参考スコア(独自算出の注目度): 18.2247510082534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Schlieren imaging is an optical technique to observe the flow of transparent
media, such as air or water, without any particle seeding. However,
conventional frame-based techniques require both high spatial and temporal
resolution cameras, which impose bright illumination and expensive computation
limitations. Event cameras offer potential advantages (high dynamic range, high
temporal resolution, and data efficiency) to overcome such limitations due to
their bio-inspired sensing principle. This paper presents a novel technique for
perceiving air convection using events and frames by providing the first
theoretical analysis that connects event data and schlieren. We formulate the
problem as a variational optimization one combining the linearized event
generation model with a physically-motivated parameterization that estimates
the temporal derivative of the air density. The experiments with accurately
aligned frame- and event camera data reveal that the proposed method enables
event cameras to obtain on par results with existing frame-based optical flow
techniques. Moreover, the proposed method works under dark conditions where
frame-based schlieren fails, and also enables slow-motion analysis by
leveraging the event camera's advantages. Our work pioneers and opens a new
stack of event camera applications, as we publish the source code as well as
the first schlieren dataset with high-quality frame and event data.
https://github.com/tub-rip/event_based_bos
- Abstract(参考訳): シュリーレンイメージング(schlieren imaging)は、粒子の種まきをすることなく、空気や水などの透明な媒体の流れを観察する光学技術である。
しかし、従来のフレームベースの手法では高空間分解能カメラと時間分解能カメラの両方が必要であり、明るい照明と高価な計算制限が課される。
イベントカメラは、バイオインスパイアされたセンシング原理により、そのような制限を克服する潜在的な利点(高ダイナミックレンジ、高時間分解能、データ効率)を提供する。
本稿では,イベントデータとシュリエレンを結合する最初の理論的解析を行い,イベントとフレームを用いた空気対流の知覚手法を提案する。
線形イベント生成モデルと空気密度の時間的微分を推定する物理的動機付けパラメータ化を組み合わせた変動最適化として問題を定式化する。
フレームとイベントカメラのデータを高精度に整列させた実験により,提案手法により,既存のフレームベースの光フロー技術と同等の結果をイベントカメラで得ることができることを明らかにした。
さらに,提案手法は,フレームベースのシュリーレンが故障する暗条件下で動作し,イベントカメラの利点を生かしてスローモーション解析を可能にする。
当社の作業は、高品質なフレームとイベントデータを備えた最初のschlierenデータセットだけでなく、ソースコードを公開することで、イベントカメラアプリケーションの新たなスタックを開拓し、公開しています。
https://github.com/tub-rip/event_based_bos
関連論文リスト
- EventAid: Benchmarking Event-aided Image/Video Enhancement Algorithms
with Real-captured Hybrid Dataset [55.12137324648253]
イベントカメラは、ダイナミックレンジとセンサーの速度で従来のフレームベースの撮像センサーよりも有利な、新興のイメージング技術である。
本稿では,5つのイベント支援画像と映像強調タスクに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-13T15:42:04Z) - Event-based Continuous Color Video Decompression from Single Frames [38.59798259847563]
本研究では,イベントカメラを用いて,単一の静的RGB画像から連続映像を生成する新しい手法であるContinuityCamを提案する。
提案手法は、連続した長距離動きモデリングと特徴平面に基づくニューラル統合モデルを組み合わせることで、イベント内の任意のタイミングでフレーム予測を可能にする。
論文 参考訳(メタデータ) (2023-11-30T18:59:23Z) - Robust e-NeRF: NeRF from Sparse & Noisy Events under Non-Uniform Motion [67.15935067326662]
イベントカメラは低電力、低レイテンシ、高時間解像度、高ダイナミックレンジを提供する。
NeRFは効率的かつ効果的なシーン表現の第一候補と見なされている。
本稿では,移動イベントカメラからNeRFを直接かつ堅牢に再構成する新しい手法であるRobust e-NeRFを提案する。
論文 参考訳(メタデータ) (2023-09-15T17:52:08Z) - Deformable Neural Radiance Fields using RGB and Event Cameras [65.40527279809474]
我々は,RGBとイベントカメラを用いた変形可能なニューラル放射場をモデル化する新しい手法を開発した。
提案手法は,イベントの非同期ストリームと疎RGBフレームを用いる。
現実的にレンダリングされたグラフィックと実世界のデータセットの両方で実施された実験は、提案手法の有益性を実証している。
論文 参考訳(メタデータ) (2023-09-15T14:19:36Z) - Revisiting Event-based Video Frame Interpolation [49.27404719898305]
ダイナミックビジョンセンサーやイベントカメラは、ビデオフレームに豊富な補完情報を提供する。
イベントからの光の流れを推定することは、RGB情報より間違いなく困難である。
イベントベースの中間フレーム合成を複数の単純化段階において漸進的に行う分割・対数戦略を提案する。
論文 参考訳(メタデータ) (2023-07-24T06:51:07Z) - Fusing Frame and Event Vision for High-speed Optical Flow for Edge
Application [2.048335092363435]
イベントカメラは、フレームレート制限を克服する継続的非同期イベントストリームを提供する。
フレームとイベントベースパイプラインの相補的精度と速度の利点を融合させ,高速な光フローを実現する。
論文 参考訳(メタデータ) (2022-07-21T19:15:05Z) - Globally-Optimal Event Camera Motion Estimation [30.79931004393174]
イベントカメラは、HDR条件でよく機能し、時間分解能の高いバイオインスパイアされたセンサーである。
イベントカメラは、非同期ピクセルレベルの変更を測定し、高度に識別されたフォーマットでそれらを返す。
論文 参考訳(メタデータ) (2022-03-08T08:24:22Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Back to Event Basics: Self-Supervised Learning of Image Reconstruction
for Event Cameras via Photometric Constancy [0.0]
イベントカメラは、非同期な方法で、低レイテンシで高時間分解能の輝度インクリメントをサンプリングする新しい視覚センサである。
本稿では,光学的フロー推定のための新しい軽量ニューラルネットワークを提案する。
複数のデータセットにまたがる結果から、提案した自己教師型アプローチのパフォーマンスは最先端技術と一致していることがわかる。
論文 参考訳(メタデータ) (2020-09-17T13:30:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。