論文の概要: Coded-E2LF: Coded Aperture Light Field Imaging from Events
- arxiv url: http://arxiv.org/abs/2602.22620v1
- Date: Thu, 26 Feb 2026 04:53:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.531616
- Title: Coded-E2LF: Coded Aperture Light Field Imaging from Events
- Title(参考訳): 符号化E2LF:イベントからの符号化開口光場イメージング
- Authors: Tomoya Tsuchida, Keita Takahashi, Chihiro Tsutake, Toshiaki Fujii, Hajime Nagahara,
- Abstract要約: Coded-E2LFは、符号化開口と静止イベント専用カメラを用いて4次元光場を取得するための計算イメージング手法である。
我々は、画素レベルの精度を持つ4次元光場を、イベント単独で再構成できることを初めて実証した。
- 参考スコア(独自算出の注目度): 14.975974414981613
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose Coded-E2LF (coded event to light field), a computational imaging method for acquiring a 4-D light field using a coded aperture and a stationary event-only camera. In a previous work, an imaging system similar to ours was adopted, but both events and intensity images were captured and used for light field reconstruction. In contrast, our method is purely event-based, which relaxes restrictions for hardware implementation. We also introduce several advancements from the previous work that enable us to theoretically support and practically improve light field reconstruction from events alone. In particular, we clarify the key role of a black pattern in aperture coding patterns. We finally implemented our method on real imaging hardware to demonstrate its effectiveness in capturing real 3-D scenes. To the best of our knowledge, we are the first to demonstrate that a 4-D light field with pixel-level accuracy can be reconstructed from events alone. Our software and supplementary video are available from our project website.
- Abstract(参考訳): 我々は、符号化開口と静止イベント専用カメラを用いて、4次元光場を取得するための計算イメージング手法であるCoded-E2LFを提案する。
過去の研究では、我々のものと類似した画像システムを採用していたが、事象と強度の画像の両方を捉え、光電場再構成に利用した。
対照的に、本手法は純粋にイベントベースであり、ハードウェア実装の制約を緩和する。
また,本稿では,イベントのみによる光電場再構築を理論的に支援し,実践的に改善する上で,これまでの成果からいくつかの進歩を紹介した。
特に,アパーチャ符号化における黒パターンの役割を明らかにする。
本手法を実写画像ハードウェアに実装し,実写3次元シーンの撮影の有効性を実証した。
我々の知る限り、我々は、ピクセルレベルの精度を持つ4次元光場を、イベント単独で再構成できることを初めて証明した。
私たちのソフトウェアと補足ビデオは、プロジェクトのWebサイトから入手できます。
関連論文リスト
- EF-3DGS: Event-Aided Free-Trajectory 3D Gaussian Splatting [87.1077910795879]
生物学的ビジョンにインスパイアされたイベントカメラは、時間分解能の高い画素の強度を非同期に記録する。
本稿では,イベントカメラの利点を3DGSにシームレスに統合するイベント支援フリートラジェクトリ3DGSを提案する。
提案手法を,パブリックタンクとテンプルのベンチマークと,新たに収集した実世界のデータセットであるRealEv-DAVISで評価した。
論文 参考訳(メタデータ) (2024-10-20T13:44:24Z) - Time-Efficient Light-Field Acquisition Using Coded Aperture and Events [16.130950260664285]
本手法は,画像フレームの単一露光中に一連の符号化パターンを適用する。
符号化パターンの違いに関連するパララックス情報は、イベントとして記録される。
画像フレームとイベントは、すべて単一の露光で測定され、光場を計算的に再構成するために共同で使用される。
論文 参考訳(メタデータ) (2024-03-12T02:04:17Z) - Reconstructing Continuous Light Field From Single Coded Image [7.937367109582907]
本研究では,対象シーンの連続光場を単一観測画像から再構成する手法を提案する。
カメラに実装された共同開口露光符号化により、3次元シーン情報の観察画像への効果的な埋め込みが可能となる。
NeRFベースのニューラルレンダリングは、連続的な視点から3Dシーンの高品質なビュー合成を可能にする。
論文 参考訳(メタデータ) (2023-11-16T07:59:01Z) - Progressively Optimized Local Radiance Fields for Robust View Synthesis [76.55036080270347]
本稿では,1つのカジュアルな映像から大規模シーンのラディアンス場を再構成するアルゴリズムを提案する。
未知のポーズを扱うために、カメラのポーズと放射場を漸進的に推定する。
大規模な非有界シーンを扱うために、時間窓内にフレームで訓練された新しい局所放射場を動的に割り当てる。
論文 参考訳(メタデータ) (2023-03-24T04:03:55Z) - EventNeRF: Neural Radiance Fields from a Single Colour Event Camera [81.19234142730326]
本稿では, 単色イベントストリームを入力として, 3次元一貫性, 密度, 新規なビュー合成法を提案する。
その中核は、カラーイベントチャンネルのオリジナルの解像度を維持しながら、イベントから完全に自己教師された方法で訓練された神経放射場である。
提案手法をいくつかの難解な合成シーンと実シーンで定性的・数値的に評価し,より密集し,より視覚的に魅力的であることを示す。
論文 参考訳(メタデータ) (2022-06-23T17:59:53Z) - Acquiring a Dynamic Light Field through a Single-Shot Coded Image [12.615509935080434]
シングルショット符号化画像(2次元計測)を用いて動的光場(5次元体積)を圧縮的に取得する手法を提案する。
我々は、1回の露光時間内に開口符号化と画素単位の露光符号化を同期的に適用する撮像モデルを設計した。
観察された画像は、光場再構成のための畳み込みニューラルネットワーク(CNN)に送られ、カメラ側のコーディングパターンと共同で訓練される。
論文 参考訳(メタデータ) (2022-04-26T06:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。