論文の概要: Time-Efficient Light-Field Acquisition Using Coded Aperture and Events
- arxiv url: http://arxiv.org/abs/2403.07244v1
- Date: Tue, 12 Mar 2024 02:04:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 23:13:39.043467
- Title: Time-Efficient Light-Field Acquisition Using Coded Aperture and Events
- Title(参考訳): 符号化開口とイベントを用いた時間効率光フィールド獲得
- Authors: Shuji Habuchi, Keita Takahashi, Chihiro Tsutake, Toshiaki Fujii,
Hajime Nagahara
- Abstract要約: 本手法は,画像フレームの単一露光中に一連の符号化パターンを適用する。
符号化パターンの違いに関連するパララックス情報は、イベントとして記録される。
画像フレームとイベントは、すべて単一の露光で測定され、光場を計算的に再構成するために共同で使用される。
- 参考スコア(独自算出の注目度): 16.130950260664285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a computational imaging method for time-efficient light-field
acquisition that combines a coded aperture with an event-based camera.
Different from the conventional coded-aperture imaging method, our method
applies a sequence of coding patterns during a single exposure for an image
frame. The parallax information, which is related to the differences in coding
patterns, is recorded as events. The image frame and events, all of which are
measured in a single exposure, are jointly used to computationally reconstruct
a light field. We also designed an algorithm pipeline for our method that is
end-to-end trainable on the basis of deep optics and compatible with real
camera hardware. We experimentally showed that our method can achieve more
accurate reconstruction than several other imaging methods with a single
exposure. We also developed a hardware prototype with the potential to complete
the measurement on the camera within 22 msec and demonstrated that light fields
from real 3-D scenes can be obtained with convincing visual quality. Our
software and supplementary video are available from our project website.
- Abstract(参考訳): 符号化開口とイベントベースカメラを組み合わせた時間効率光場取得のための計算画像化手法を提案する。
従来の coded-aperture imaging 法と異なり,画像フレームの単一露光時の符号化パターンのシーケンスを適用する。
符号化パターンの違いに関連するパララックス情報は、イベントとして記録される。
画像フレームとイベントはいずれも単一の露光で測定され、光場を計算的に再構成するために併用される。
我々はまた、ディープ光学に基づいてエンドツーエンドのトレーニングが可能で、実際のカメラハードウェアと互換性のあるアルゴリズムパイプラインを設計した。
本手法は,他の複数の撮像法よりも高精度に1回の露光で再現できることを実験的に示した。
また,22m秒以内でカメラの計測を完了できるハードウェアプロトタイプを開発し,実写3Dシーンからの光場を説得力のある視覚的品質で得られることを示した。
私たちのソフトウェアと補足ビデオはプロジェクトのWebサイトから入手できます。
関連論文リスト
- EF-3DGS: Event-Aided Free-Trajectory 3D Gaussian Splatting [76.02450110026747]
生物学的ビジョンにインスパイアされたイベントカメラは、時間分解能の高い画素の強度を非同期に記録する。
本稿では,イベントカメラの利点を3DGSにシームレスに統合するイベント支援フリートラジェクトリ3DGSを提案する。
提案手法を,パブリックタンクとテンプルのベンチマークと,新たに収集した実世界のデータセットであるRealEv-DAVISで評価した。
論文 参考訳(メタデータ) (2024-10-20T13:44:24Z) - Reconstructing Continuous Light Field From Single Coded Image [7.937367109582907]
本研究では,対象シーンの連続光場を単一観測画像から再構成する手法を提案する。
カメラに実装された共同開口露光符号化により、3次元シーン情報の観察画像への効果的な埋め込みが可能となる。
NeRFベースのニューラルレンダリングは、連続的な視点から3Dシーンの高品質なビュー合成を可能にする。
論文 参考訳(メタデータ) (2023-11-16T07:59:01Z) - Joint Video Multi-Frame Interpolation and Deblurring under Unknown
Exposure Time [101.91824315554682]
本研究では,より現実的で挑戦的なタスク – 複数フレームのジョイントビデオと,未知の露光時間下での劣化 – を野心的に目標とする。
我々はまず,入力されたぼやけたフレームから露出認識表現を構築するために,教師付きコントラスト学習の変種を採用する。
次に、プログレッシブ露光適応型畳み込みと動き改善による露出と動きの表現に基づいて、映像再構成ネットワークを構築した。
論文 参考訳(メタデータ) (2023-03-27T09:43:42Z) - Multi-Event-Camera Depth Estimation and Outlier Rejection by Refocused
Events Fusion [14.15744053080529]
イベントカメラはバイオインスパイアされたセンサーで、従来のカメラよりも有利だ。
SLAMにおけるイベントベースステレオ3D再構成の課題に対処する。
我々は融合理論を開発し、それをマルチカメラ3D再構成アルゴリズムの設計に適用する。
論文 参考訳(メタデータ) (2022-07-21T14:19:39Z) - Acquiring a Dynamic Light Field through a Single-Shot Coded Image [12.615509935080434]
シングルショット符号化画像(2次元計測)を用いて動的光場(5次元体積)を圧縮的に取得する手法を提案する。
我々は、1回の露光時間内に開口符号化と画素単位の露光符号化を同期的に適用する撮像モデルを設計した。
観察された画像は、光場再構成のための畳み込みニューラルネットワーク(CNN)に送られ、カメラ側のコーディングパターンと共同で訓練される。
論文 参考訳(メタデータ) (2022-04-26T06:00:02Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - Real-time dense 3D Reconstruction from monocular video data captured by
low-cost UAVs [0.3867363075280543]
リアルタイム3d再構築は,ナビゲーションや緊急時のライブ評価など,多数のアプリケーションにメリットがある環境の高速密マッピングを可能にする。
ほとんどのリアルタイム対応のアプローチとは対照的に、我々のアプローチは明示的な深度センサーを必要としない。
建物周辺を斜め視で飛行する無人航空機(UAV)の自己動作を利用して、選択された画像のカメラ軌道と深度の両方を、十分な新規な内容で推定します。
論文 参考訳(メタデータ) (2021-04-21T13:12:17Z) - Relighting Images in the Wild with a Self-Supervised Siamese
Auto-Encoder [62.580345486483886]
本研究では,野生の単一ビュー画像の自己教師付きリライティング手法を提案する。
この方法は、イメージを2つの別々のエンコーディングに分解するオートエンコーダに基づいている。
Youtube 8MやCelebAなどの大規模データセットでモデルをトレーニングします。
論文 参考訳(メタデータ) (2020-12-11T16:08:50Z) - Event-based Stereo Visual Odometry [42.77238738150496]
ステレオ・イベント・ベースのカメラ・リグが取得したデータから視覚計測の問題に対する解決策を提案する。
我々は,シンプルかつ効率的な表現を用いて,ステレオイベントベースのデータの時間的一貫性を最大化する。
論文 参考訳(メタデータ) (2020-07-30T15:53:28Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z) - DeProCams: Simultaneous Relighting, Compensation and Shape
Reconstruction for Projector-Camera Systems [91.45207885902786]
本稿では,ProCamsの測光および幾何学的マッピングを学習するために,DeProCamsという新しいエンドツーエンドトレーニングモデルを提案する。
DeProCamsは、プロジェクターカメライメージマッピングを、シェーディング属性推定、粗い直接光推定、フォトリアリスティックなニューラルレンダリングの3つのサブプロセスに明示的に分解する。
私たちの実験では、DeProCamsは、期待できる品質と完全に差別化可能な従来の芸術よりも明確な優位性を示している。
論文 参考訳(メタデータ) (2020-03-06T05:49:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。