論文の概要: High-speed Imaging through Turbulence with Event-based Light Fields
- arxiv url: http://arxiv.org/abs/2603.14023v1
- Date: Sat, 14 Mar 2026 16:54:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.554055
- Title: High-speed Imaging through Turbulence with Event-based Light Fields
- Title(参考訳): イベントベース光場による乱流の高速イメージング
- Authors: Yu-Hsiang Huang, Levi Burner, Sachin Shah, Ziyuan Qu, Adithya Pediredla, Christopher A. Metzler,
- Abstract要約: この研究は、高速に動く非剛体物体を高フレーム速度で強大な大気乱流を通して撮像できる最初のシステムを紹介し、実証する。
イベントカメラは、毎秒数千フレームの高速画像を推定できる新しいセンシングアーキテクチャである。
- 参考スコア(独自算出の注目度): 17.255199056108182
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work introduces and demonstrates the first system capable of imaging fast-moving extended non-rigid objects through strong atmospheric turbulence at high frame rate. Event cameras are a novel sensing architecture capable of estimating high-speed imagery at thousands of frames per second. However, on their own event cameras are unable to disambiguate scene motion from turbulence. In this work, we overcome this limitation using event-based light field cameras: By simultaneously capturing multiple views of a scene, event-based light field cameras and machine learning-based reconstruction algorithms are able to disambiguate motion-induced dynamics, which produce events that are strongly correlated across views, from turbulence-induced dynamics, which produce events that are weakly correlated across view. Tabletop experiments demonstrate event-based light field can overcome strong turbulence while imaging high-speed objects traveling at up to 16,000 pixels per second.
- Abstract(参考訳): この研究は、高速に動く非剛体物体を高フレーム速度で強大な大気乱流を通して撮像できる最初のシステムを紹介し、実証する。
イベントカメラは、毎秒数千フレームの高速画像を推定できる新しいセンシングアーキテクチャである。
しかし、彼ら自身のイベントカメラでは、乱気流からシーンの動きを曖昧にすることはできない。
イベントベースの光場カメラと機械学習ベースの再構成アルゴリズムは、シーンの複数のビューを同時にキャプチャすることで、ビュー間で強く相関するイベントを、ビュー間で弱相関するイベントから、ビュー間で強く相関するイベントを生成する、運動誘起ダイナミクスを曖昧にすることができる。
テーブルトップ実験では、イベントベースの光場は強い乱流を克服し、高速物体を毎秒16,000ピクセルの速度で撮影することができる。
関連論文リスト
- Event fields: Capturing light fields at high speed, resolution, and dynamic range [9.2152453085337]
イベントフィールド(Event Fields)は、イベントカメラの革新的な光学設計を利用して、高速で光フィールドを捕捉する手法である。
イベントフィールドの基礎となる数学的フレームワークを開発し、それらを現実的に捉えるための2つの基礎的なフレームワークを導入します。
この新しい光センシングパラダイムは、写真、ロボティクス、AR/VRの新たな応用への扉を開き、レンダリングと機械学習における新たな課題を提示している。
論文 参考訳(メタデータ) (2024-12-09T04:02:49Z) - Structured light with a million light planes per second [17.590896196214914]
フルフレームの3Dスキャンを1000text$で実現し,従来よりも4倍高速な構造光システムを提案する。
鍵となるイノベーションは、毎秒200万光面を投影できるカスタムの光学式光走査装置を使用することだ。
論文 参考訳(メタデータ) (2024-11-27T18:44:23Z) - Deblur e-NeRF: NeRF from Motion-Blurred Events under High-speed or Low-light Conditions [56.84882059011291]
動き赤外イベントからぼやけた最小のNeRFを再構成する新しい手法であるDeblur e-NeRFを提案する。
また,大きなテクスチャレスパッチの正規化を改善するために,新しいしきい値正規化全変動損失を導入する。
論文 参考訳(メタデータ) (2024-09-26T15:57:20Z) - TimeRewind: Rewinding Time with Image-and-Events Video Diffusion [10.687722181495065]
本稿では,シャッターボタンが押される直前に欠落したフリーティングモーメントを回復するために,単一のキャプチャ画像からタイムを巻き戻すという,新たな課題について述べる。
我々は、時間分解能の高いモーション情報をキャプチャするニューロモルフィックイベントカメラの新興技術を活用することで、この課題を克服する。
提案フレームワークは,イベントカメラデータに基づくイベントモーションアダプタを導入し,この拡散モデルを用いて,キャプチャしたイベントに視覚的に整合性を持ち,物理的に接地した映像を生成する。
論文 参考訳(メタデータ) (2024-03-20T17:57:02Z) - EventAid: Benchmarking Event-aided Image/Video Enhancement Algorithms
with Real-captured Hybrid Dataset [55.12137324648253]
イベントカメラは、ダイナミックレンジとセンサーの速度で従来のフレームベースの撮像センサーよりも有利な、新興のイメージング技術である。
本稿では,5つのイベント支援画像と映像強調タスクに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-13T15:42:04Z) - Robust e-NeRF: NeRF from Sparse & Noisy Events under Non-Uniform Motion [67.15935067326662]
イベントカメラは低電力、低レイテンシ、高時間解像度、高ダイナミックレンジを提供する。
NeRFは効率的かつ効果的なシーン表現の第一候補と見なされている。
本稿では,移動イベントカメラからNeRFを直接かつ堅牢に再構成する新しい手法であるRobust e-NeRFを提案する。
論文 参考訳(メタデータ) (2023-09-15T17:52:08Z) - Panoramas from Photons [22.437940699523082]
低光域や高ダイナミックレンジといった困難な条件下での極端なシーンの動きを推定できる手法を提案する。
本手法は, ファクト後のフレームを階層的にグループ化し, 集約することに依存する。
高速動作と極低光下での高画質パノラマの創出と,カスタム単光子カメラの試作による超高分解能化を実証した。
論文 参考訳(メタデータ) (2023-09-07T16:07:31Z) - E-NeRF: Neural Radiance Fields from a Moving Event Camera [83.91656576631031]
理想的な画像からニューラルレイディアンス場(NeRF)を推定する手法はコンピュータビジョンコミュニティで広く研究されている。
本稿では,高速なイベントカメラからNeRFの形式でボリュームシーンを推定する最初の方法であるE-NeRFを提案する。
論文 参考訳(メタデータ) (2022-08-24T04:53:32Z) - MEFNet: Multi-scale Event Fusion Network for Motion Deblurring [62.60878284671317]
従来のフレームベースのカメラは、長時間露光のために必然的に動きがぼやけている。
バイオインスパイアされたカメラの一種として、イベントカメラは、高時間分解能で非同期な方法で強度変化を記録する。
本稿では,イベントベースの画像劣化問題を再考し,これをエンドツーエンドの2段階画像復元ネットワークに展開する。
論文 参考訳(メタデータ) (2021-11-30T23:18:35Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。