論文の概要: Selective Light Field Refocusing for Camera Arrays Using Bokeh Rendering
and Superresolution
- arxiv url: http://arxiv.org/abs/2108.03918v1
- Date: Mon, 9 Aug 2021 10:19:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-10 22:11:51.805807
- Title: Selective Light Field Refocusing for Camera Arrays Using Bokeh Rendering
and Superresolution
- Title(参考訳): bokehレンダリングとスーパーレゾリューションを用いたカメラアレイの選択的光電界リフォーカス
- Authors: Yingqian Wang, Jungang Yang, Yulan Guo, Chao Xiao, Wei An
- Abstract要約: カメラアレイの撮像品質を向上させるための光場再焦点法を提案する。
本手法では,深度に基づく異方性フィルタを用いて非焦点領域(bokeh)を描画する。
提案手法は,他の最先端手法と比較して,計算コストが許容できる優れた視覚性能を実現する。
- 参考スコア(独自算出の注目度): 27.944215174962995
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Camera arrays provide spatial and angular information within a single
snapshot. With refocusing methods, focal planes can be altered after exposure.
In this letter, we propose a light field refocusing method to improve the
imaging quality of camera arrays. In our method, the disparity is first
estimated. Then, the unfocused region (bokeh) is rendered by using a
depth-based anisotropic filter. Finally, the refocused image is produced by a
reconstruction-based superresolution approach where the bokeh image is used as
a regularization term. Our method can selectively refocus images with focused
region being superresolved and bokeh being aesthetically rendered. Our method
also enables postadjustment of depth of field. We conduct experiments on both
public and self-developed datasets. Our method achieves superior visual
performance with acceptable computational cost as compared to other
state-of-the-art methods. Code is available at
https://github.com/YingqianWang/Selective-LF-Refocusing.
- Abstract(参考訳): カメラアレイは、1つのスナップショット内で空間的および角的情報を提供する。
再焦点法では、焦点平面は露出後に変化する。
本稿では,カメラアレイの撮像品質を向上させるための光場再焦点法を提案する。
本手法では,まず差分を推定する。
そして、奥行きに基づく異方性フィルタを用いて非焦点領域(bokeh)を描画する。
最後に、ボケ画像を正規化項とする再構成に基づく超解像法により、再焦点画像を生成する。
本手法では,焦点領域を超解像とし,ボケを審美的にレンダリングした画像を選択的に再焦点することができる。
また,フィールド深度の調整も可能である。
公開および自己開発両方のデータセットで実験を行う。
本手法は他の最先端手法に比べて高い計算コストで優れた視覚性能を実現する。
コードはhttps://github.com/yingqianwang/selective-lf-refocusingで入手できる。
関連論文リスト
- Variable Aperture Bokeh Rendering via Customized Focal Plane Guidance [18.390543681127976]
提案手法は,主流のボケモデルよりもはるかに軽量な4.4Mパラメータで,最先端の競合性能を実現している。
提案手法は,主流のボケモデルよりもはるかに軽量な4.4Mパラメータで,最先端の競合性能を実現している。
論文 参考訳(メタデータ) (2024-10-18T12:04:23Z) - Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - ExBluRF: Efficient Radiance Fields for Extreme Motion Blurred Images [58.24910105459957]
極端運動ぼかし画像の新しいビュー合成法であるExBluRFを提案する。
提案手法は,6-DOFカメラトラジェクトリをベースとしたモーションブラー定式化と,ボクセルをベースとした放射場からなる。
既存の作業と比較して、トレーニング時間とGPUメモリ使用量の10倍の順序で、よりシャープな3Dシーンを復元する。
論文 参考訳(メタデータ) (2023-09-16T11:17:25Z) - Defocus to focus: Photo-realistic bokeh rendering by fusing defocus and
radiance priors [26.38833313692807]
Bokehレンダリングは、プロの写真における美的浅層深度(DoF)を模倣している。
既存の手法は、単純な平坦な背景のぼやけと、焦点内領域のぼやけに悩まされている。
本稿では,現実的なボケレンダリングを学習するためのD2Fフレームワークについて述べる。
論文 参考訳(メタデータ) (2023-06-07T15:15:13Z) - Bokeh Rendering Based on Adaptive Depth Calibration Network [13.537088629080122]
ボケレンダリングは、美的な効果を生み出すために写真で使われる一般的なテクニックである。
携帯電話では、フィールドの浅い写真は撮れません。
本稿では,最新の強力なディープラーニングアーキテクチャであるVision Transformerを用いたボケレンダリング手法を提案する。
論文 参考訳(メタデータ) (2023-02-21T16:33:51Z) - Learning Depth from Focus in the Wild [16.27391171541217]
単一焦点スタックからの畳み込みニューラルネットワークによる深度推定を提案する。
本手法では,画像アライメントにおいても,奥行きマップをエンドツーエンドで推定することができる。
提案するネットワークの一般化のために,商用カメラの特徴を現実的に再現するシミュレータを開発した。
論文 参考訳(メタデータ) (2022-07-20T05:23:29Z) - Single image deep defocus estimation and its applications [82.93345261434943]
画像パッチを20レベルの曖昧さの1つに分類するために、ディープニューラルネットワークをトレーニングします。
トレーニングされたモデルは、反復重み付きガイドフィルタを適用して改善するパッチのぼかしを決定するために使用される。
その結果、デフォーカスマップは各ピクセルのぼやけた度合いの情報を運ぶ。
論文 参考訳(メタデータ) (2021-07-30T06:18:16Z) - Geometric Scene Refocusing [9.198471344145092]
本研究では,焦点スタックの文脈における浅層深度画像の微視的特徴について検討する。
焦点内画素、二重焦点画素、焦点スライス間のボケと空間的に異なるぼやけたカーネルを示す画素を同定する。
幾何的に正しい方法で捕獲後再フォーカスのための包括的アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-20T06:33:55Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z) - Rendering Natural Camera Bokeh Effect with Deep Learning [95.86933125733673]
ボケ(Bokeh)は、写真に焦点をあてる重要な芸術効果である。
モバイルカメラは、光学の直径が非常に小さいため、被写界深度が浅い写真を作ることができない。
本稿では,デジタル一眼レフカメラで撮影された写真から直接,現実的な浅層焦点技術を学ぶことを提案する。
論文 参考訳(メタデータ) (2020-06-10T07:28:06Z) - Learning Light Field Angular Super-Resolution via a Geometry-Aware
Network [101.59693839475783]
そこで本研究では,広いベースラインを持つスパースサンプリング光場を超解き放つことを目的とした,エンド・ツー・エンドの学習ベースアプローチを提案する。
提案手法は,実行時間48$times$を節約しつつ,2番目のベストメソッドのPSNRを平均2dBまで改善する。
論文 参考訳(メタデータ) (2020-02-26T02:36:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。