論文の概要: Acquiring a Dynamic Light Field through a Single-Shot Coded Image
- arxiv url: http://arxiv.org/abs/2204.12089v1
- Date: Tue, 26 Apr 2022 06:00:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 13:49:46.233649
- Title: Acquiring a Dynamic Light Field through a Single-Shot Coded Image
- Title(参考訳): シングルショット符号化画像による動的光場取得
- Authors: Ryoya Mizuno, Keita Takahashi, Michitaka Yoshida, Chihiro Tsutake,
Toshiaki Fujii, Hajime Nagahara
- Abstract要約: シングルショット符号化画像(2次元計測)を用いて動的光場(5次元体積)を圧縮的に取得する手法を提案する。
我々は、1回の露光時間内に開口符号化と画素単位の露光符号化を同期的に適用する撮像モデルを設計した。
観察された画像は、光場再構成のための畳み込みニューラルネットワーク(CNN)に送られ、カメラ側のコーディングパターンと共同で訓練される。
- 参考スコア(独自算出の注目度): 12.615509935080434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a method for compressively acquiring a dynamic light field (a 5-D
volume) through a single-shot coded image (a 2-D measurement). We designed an
imaging model that synchronously applies aperture coding and pixel-wise
exposure coding within a single exposure time. This coding scheme enables us to
effectively embed the original information into a single observed image. The
observed image is then fed to a convolutional neural network (CNN) for
light-field reconstruction, which is jointly trained with the camera-side
coding patterns. We also developed a hardware prototype to capture a real 3-D
scene moving over time. We succeeded in acquiring a dynamic light field with
5x5 viewpoints over 4 temporal sub-frames (100 views in total) from a single
observed image. Repeating capture and reconstruction processes over time, we
can acquire a dynamic light field at 4x the frame rate of the camera. To our
knowledge, our method is the first to achieve a finer temporal resolution than
the camera itself in compressive light-field acquisition. Our software is
available from our project webpage
- Abstract(参考訳): 単一ショット符号化画像(2次元計測)を用いて動的光場(5次元体積)を圧縮的に取得する手法を提案する。
我々は,1回の露光時間内に開口符号化と画素分割露光符号化を同期的に適用するイメージングモデルを設計した。
この符号化方式により、元の情報を単一の観測画像に効果的に埋め込むことができる。
観察された画像は、光場再構成のための畳み込みニューラルネットワーク(CNN)に送られ、カメラ側のコーディングパターンと共同で訓練される。
また,実際の3Dシーンを時間とともに撮影するハードウェアプロトタイプも開発した。
1つの観測画像から4つの時間的サブフレーム(合計100ビュー)に5x5視点の動的光場を得ることに成功した。
撮影と復元を繰り返すことで、カメラのフレームレートの4倍のダイナミック光場を得ることができる。
我々の知る限り、我々の方法は、圧縮光場取得においてカメラ自体よりも微細な時間分解能を達成する最初の方法である。
私たちのソフトウェアはプロジェクトのWebページから入手可能です。
関連論文リスト
- Time-Efficient Light-Field Acquisition Using Coded Aperture and Events [16.130950260664285]
本手法は,画像フレームの単一露光中に一連の符号化パターンを適用する。
符号化パターンの違いに関連するパララックス情報は、イベントとして記録される。
画像フレームとイベントは、すべて単一の露光で測定され、光場を計算的に再構成するために共同で使用される。
論文 参考訳(メタデータ) (2024-03-12T02:04:17Z) - Reconstructing Continuous Light Field From Single Coded Image [7.937367109582907]
本研究では,対象シーンの連続光場を単一観測画像から再構成する手法を提案する。
カメラに実装された共同開口露光符号化により、3次元シーン情報の観察画像への効果的な埋め込みが可能となる。
NeRFベースのニューラルレンダリングは、連続的な視点から3Dシーンの高品質なビュー合成を可能にする。
論文 参考訳(メタデータ) (2023-11-16T07:59:01Z) - Joint 3D Shape and Motion Estimation from Rolling Shutter Light-Field
Images [2.0277446818410994]
本研究では,ローリングシャッターセンサを備えた光界カメラで撮影した1枚の画像からシーンを3次元再構成する手法を提案する。
本手法は、光場に存在する3次元情報キューと、ローリングシャッター効果によって提供される動き情報を利用する。
本稿では,このセンサの撮像プロセスの汎用モデルと再投射誤差を最小化する2段階アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-02T15:08:18Z) - Real-Time Radiance Fields for Single-Image Portrait View Synthesis [85.32826349697972]
本研究では,1つの未提示画像からリアルタイムに3D表現を推測・描画するワンショット手法を提案する。
一つのRGB入力が与えられた場合、画像エンコーダは、ボリュームレンダリングによる3次元新規ビュー合成のためのニューラルラディアンスフィールドの標準三面体表現を直接予測する。
提案手法は消費者ハードウェア上で高速(24fps)であり,テスト時間最適化を必要とする強力なGAN反転ベースラインよりも高品質な結果が得られる。
論文 参考訳(メタデータ) (2023-05-03T17:56:01Z) - Joint Video Multi-Frame Interpolation and Deblurring under Unknown
Exposure Time [101.91824315554682]
本研究では,より現実的で挑戦的なタスク – 複数フレームのジョイントビデオと,未知の露光時間下での劣化 – を野心的に目標とする。
我々はまず,入力されたぼやけたフレームから露出認識表現を構築するために,教師付きコントラスト学習の変種を採用する。
次に、プログレッシブ露光適応型畳み込みと動き改善による露出と動きの表現に基づいて、映像再構成ネットワークを構築した。
論文 参考訳(メタデータ) (2023-03-27T09:43:42Z) - Progressively Optimized Local Radiance Fields for Robust View Synthesis [76.55036080270347]
本稿では,1つのカジュアルな映像から大規模シーンのラディアンス場を再構成するアルゴリズムを提案する。
未知のポーズを扱うために、カメラのポーズと放射場を漸進的に推定する。
大規模な非有界シーンを扱うために、時間窓内にフレームで訓練された新しい局所放射場を動的に割り当てる。
論文 参考訳(メタデータ) (2023-03-24T04:03:55Z) - NeRFPlayer: A Streamable Dynamic Scene Representation with Decomposed
Neural Radiance Fields [99.57774680640581]
本稿では、高速な再構成、コンパクトなモデリング、およびストリーム可能なレンダリングが可能な効率的なフレームワークを提案する。
本稿では, 時間特性に応じて4次元空間を分解することを提案する。4次元空間の点は, 静的, 変形, および新しい領域の3つのカテゴリに属する確率に関連付けられている。
論文 参考訳(メタデータ) (2022-10-28T07:11:05Z) - A Portable Multiscopic Camera for Novel View and Time Synthesis in
Dynamic Scenes [42.00094186447837]
ダイナミックなシーンにおける新しいビューと時間合成のための専用モデルを備えた携帯型マルチスコープカメラシステムを提案する。
私たちのゴールは、ポータブルなマルチスコープカメラを使って、いつでもあらゆる視点から、ダイナミックなシーンの高品質な画像をレンダリングすることです。
論文 参考訳(メタデータ) (2022-08-30T17:53:17Z) - Real-time dense 3D Reconstruction from monocular video data captured by
low-cost UAVs [0.3867363075280543]
リアルタイム3d再構築は,ナビゲーションや緊急時のライブ評価など,多数のアプリケーションにメリットがある環境の高速密マッピングを可能にする。
ほとんどのリアルタイム対応のアプローチとは対照的に、我々のアプローチは明示的な深度センサーを必要としない。
建物周辺を斜め視で飛行する無人航空機(UAV)の自己動作を利用して、選択された画像のカメラ軌道と深度の両方を、十分な新規な内容で推定します。
論文 参考訳(メタデータ) (2021-04-21T13:12:17Z) - Neural Radiance Flow for 4D View Synthesis and Video Processing [59.9116932930108]
本稿では,RGB画像から動的シーンの4次元空間時空間表現を学習する手法を提案する。
私たちのアプローチの鍵は、シーンの3D占有率、輝度、およびダイナミクスをキャプチャすることを学ぶ神経暗黙表現を使用することです。
論文 参考訳(メタデータ) (2020-12-17T17:54:32Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。