論文の概要: Dual-Camera All-in-Focus Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2504.16636v1
- Date: Wed, 23 Apr 2025 11:55:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 16:41:58.215967
- Title: Dual-Camera All-in-Focus Neural Radiance Fields
- Title(参考訳): Dual-Camera All-in-Focus Neural Radiance Fields
- Authors: Xianrui Luo, Zijin Wu, Juewen Peng, Huiqiang Sun, Zhiguo Cao, Guosheng Lin,
- Abstract要約: 入力からオールインフォーカス神経放射場(NeRF)を手動で再焦点することなく合成できる最初のフレームワークを提案する。
スマートフォンからデュアルカメラを導入し、超広視野カメラは広い視野深度(DoF)を持ち、メインカメラは高解像度である。
デュアルカメラペアは、メインカメラから高忠実度の詳細を保存し、全焦点復元の基準として超ワイドカメラの深度DoFを使用する。
- 参考スコア(独自算出の注目度): 54.19848043744996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the first framework capable of synthesizing the all-in-focus neural radiance field (NeRF) from inputs without manual refocusing. Without refocusing, the camera will automatically focus on the fixed object for all views, and current NeRF methods typically using one camera fail due to the consistent defocus blur and a lack of sharp reference. To restore the all-in-focus NeRF, we introduce the dual-camera from smartphones, where the ultra-wide camera has a wider depth-of-field (DoF) and the main camera possesses a higher resolution. The dual camera pair saves the high-fidelity details from the main camera and uses the ultra-wide camera's deep DoF as reference for all-in-focus restoration. To this end, we first implement spatial warping and color matching to align the dual camera, followed by a defocus-aware fusion module with learnable defocus parameters to predict a defocus map and fuse the aligned camera pair. We also build a multi-view dataset that includes image pairs of the main and ultra-wide cameras in a smartphone. Extensive experiments on this dataset verify that our solution, termed DC-NeRF, can produce high-quality all-in-focus novel views and compares favorably against strong baselines quantitatively and qualitatively. We further show DoF applications of DC-NeRF with adjustable blur intensity and focal plane, including refocusing and split diopter.
- Abstract(参考訳): 入力からオールインフォーカス神経放射場(NeRF)を手動で再焦点することなく合成できる最初のフレームワークを提案する。
再フォーカスなしでは、カメラは自動的に固定されたオブジェクトに焦点を合わせ、現在のNeRFメソッドは、一眼レフのぼやけと鋭い参照の欠如によって失敗する。
オールインフォーカスのNeRFを復元するために、スマートフォンからデュアルカメラを導入し、超広視野カメラはより広い視野深度(DoF)を持ち、メインカメラは高解像度である。
デュアルカメラペアは、メインカメラから高忠実度の詳細を保存し、全焦点復元の基準として超ワイドカメラの深度DoFを使用する。
この目的のために、我々はまず、デュアルカメラを整列させるために空間歪みと色マッチングを実装し、続いてデフォーカス対応融合モジュールと学習可能なデフォーカスパラメータを用いてデフォーカスマップを予測し、整列したカメラペアを融合させる。
また、スマートフォンのメインカメラとウルトラワイドカメラのイメージペアを含むマルチビューデータセットも構築しています。
このデータセットの大規模な実験により、我々の解であるDC-NeRFが高品質なオールインフォーカスノベルビューを生成できることを確認した。
さらに,直流-NeRF の直流-NeRF の直流-NeRF のぼかし強度と焦点面を調整可能とし,再焦点と分割ダイオプタを含むDoF 適用について述べる。
関連論文リスト
- fNeRF: High Quality Radiance Fields from Practical Cameras [13.168695239732703]
本稿では,レンズの光学的特性を活用し,デフォーカスブラーの存在下でのシーン再構成を向上するレイキャスティングの改良を提案する。
提案手法は, ピンホールモデルよりも実用カメラのデフォーカスブラー挙動とよく一致していることを示す。
論文 参考訳(メタデータ) (2024-06-15T13:33:06Z) - Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - Camera-Independent Single Image Depth Estimation from Defocus Blur [6.516967182213821]
光物理方程式を用いて、複数のカメラ関連パラメータがデフォーカスのぼかしにどのように影響するかを示す。
我々は、デフォーカスブラーモデルから奥行きのカメラ独立性能をテストするために、合成データセットを作成する。
論文 参考訳(メタデータ) (2023-11-21T23:14:42Z) - $\text{DC}^2$: Dual-Camera Defocus Control by Learning to Refocus [38.24734623691387]
合成カメラ開口,焦点距離,任意のデフォーカス効果のデフォーカス制御システムを提案する。
私たちの重要な洞察は、デフォーカスを学習するためのプロキシタスクとしてイメージリフォーカスを使用することで、実世界のスマートフォンカメラデータセットを活用することです。
我々は,傾きシフトやコンテンツベースのデフォーカス効果を含む,クリエイティヴ・キャプチャー後デフォーカス制御の実現を実証する。
論文 参考訳(メタデータ) (2023-04-06T17:59:58Z) - Improving Fast Auto-Focus with Event Polarity [5.376511424333543]
本稿では,新しい高速かつ高精度なイベントベースフォーカスアルゴリズムを提案する。
パブリックイベントベースのオートフォーカスデータセット(EAD)の実験は、モデルの堅牢性を示している。
焦点の深さが1度未満の正確なフォーカスは、私たちの自作高速フォーカスプラットフォームで0.004秒以内に達成されます。
論文 参考訳(メタデータ) (2023-03-15T13:36:13Z) - Learning Dual-Pixel Alignment for Defocus Deblurring [73.80328094662976]
本稿では,デフォーカス除去のためのDPANet(Dual-Pixel Alignment Network)を提案する。
目に見える鋭い構造やテクスチャを回復しながら、デフォーカスのぼやけを減らし、最先端のデブロアリング法よりも優れている。
論文 参考訳(メタデータ) (2022-04-26T07:02:58Z) - Defocus Map Estimation and Deblurring from a Single Dual-Pixel Image [54.10957300181677]
本稿では,1枚のデュアルピクセルイメージを入力として,画像のデフォーカスマップを同時に推定する手法を提案する。
本手法は,デフォーカスマップ推定とぼかし除去の両方において,教師なしでも事前作業を改善する。
論文 参考訳(メタデータ) (2021-10-12T00:09:07Z) - An End-to-End Autofocus Camera for Iris on the Move [48.14011526385088]
本稿では,焦点可変レンズを用いた移動物体の虹彩領域を能動的に再焦点する高速オートフォーカスカメラを提案する。
我々のエンドツーエンドの計算アルゴリズムは、1つのぼやけた画像からベストフォーカス位置を予測し、自動的にレンズダイオプタ制御信号を生成する。
その結果,静的および動的シーンにおける生体認識のためのカメラの利点が示された。
論文 参考訳(メタデータ) (2021-06-29T03:00:39Z) - Defocus Deblurring Using Dual-Pixel Data [41.201653787083735]
デフォーカスのぼかしは、広い開口部の使用により被写界深度が浅い画像に現れる。
最新のカメラで検出されるデュアルピクセル(DP)センサで利用可能なデータを活用する,効果的なデフォーカスデブロリング手法を提案する。
論文 参考訳(メタデータ) (2020-05-01T10:38:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。