論文の概要: Machine learning method for light field refocusing
- arxiv url: http://arxiv.org/abs/2103.16020v1
- Date: Tue, 30 Mar 2021 01:46:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-03-31 15:06:05.685132
- Title: Machine learning method for light field refocusing
- Title(参考訳): 光場再フォーカスのための機械学習手法
- Authors: Eisa Hedayati, Timothy C. Havens, Jeremy P. Bos
- Abstract要約: 16枚のリフォーカス画像をリアルタイムで抽出できる機械学習ベースのリフォーカス技術を紹介します。
RefNet法は従来のアプローチよりも少なくとも134倍高速であるだけでなく、RefNetの色予測はフーリエスライス法とシフトアンドサム法の両方よりも優れています。
- 参考スコア(独自算出の注目度): 1.7897296898381627
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Light field imaging introduced the capability to refocus an image after
capturing. Currently there are two popular methods for refocusing,
shift-and-sum and Fourier slice methods. Neither of these two methods can
refocus the light field in real-time without any pre-processing. In this paper
we introduce a machine learning based refocusing technique that is capable of
extracting 16 refocused images with refocusing parameters of
\alpha=0.125,0.250,0.375,...,2.0 in real-time. We have trained our network,
which is called RefNet, in two experiments. Once using the Fourier slice method
as the training -- i.e., "ground truth" -- data and another using the
shift-and-sum method as the training data. We showed that in both cases, not
only is the RefNet method at least 134x faster than previous approaches, but
also the color prediction of RefNet is superior to both Fourier slice and
shift-and-sum methods while having similar depth of field and focus distance
performance.
- Abstract(参考訳): 光電界イメージングは、撮影後にイメージを再フォーカスする機能を導入した。
現在、再フォーカスする2つの一般的な方法、シフト・アンド・サム法とフーリエスライス法がある。
これらの2つの方法はいずれも、前処理なしで光場をリアルタイムに再フォーカスするものではない。
本稿では,16個の再焦点像を,実時間で再焦点パラメータ \alpha=0.125,0.250,0.375,...,2.0で抽出できる機械学習に基づく再焦点技術を提案する。
RefNetと呼ばれるネットワークを2つの実験でトレーニングしました。
トレーニングデータとしてフーリエスライス法(つまり「地上真実」)を使い、トレーニングデータとしてシフト・アンド・サム法を使用するもの。
どちらの場合も、RefNet法は従来の手法よりも少なくとも134倍高速であるだけでなく、Fourierスライス法やシフト・アンド・サム法よりもRefNetの色予測に優れており、フィールド深度とフォーカス距離性能は類似している。
関連論文リスト
- Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - Reconstructing Continuous Light Field From Single Coded Image [7.937367109582907]
本研究では,対象シーンの連続光場を単一観測画像から再構成する手法を提案する。
カメラに実装された共同開口露光符号化により、3次元シーン情報の観察画像への効果的な埋め込みが可能となる。
NeRFベースのニューラルレンダリングは、連続的な視点から3Dシーンの高品質なビュー合成を可能にする。
論文 参考訳(メタデータ) (2023-11-16T07:59:01Z) - Deep Dynamic Scene Deblurring from Optical Flow [53.625999196063574]
汚れは視覚的により快適な写真を提供し、写真がより便利になる。
非均一な曖昧さを数学的にモデル化することは困難である。
我々は,難解な特徴から鮮明な画像を復元する畳み込みニューラルネットワーク(CNN)を開発した。
論文 参考訳(メタデータ) (2023-01-18T06:37:21Z) - Learning to Relight Portrait Images via a Virtual Light Stage and
Synthetic-to-Real Adaptation [76.96499178502759]
Relightingは、イメージ内の人物を、ターゲットの照明のある環境に現れたかのように再照らすことを目的としている。
最近の手法は、高品質な結果を得るためにディープラーニングに依存している。
そこで本研究では,光ステージを必要とせずに,SOTA(State-of-the-art Relighting Method)と同等に動作可能な新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-21T17:15:58Z) - Learning Depth from Focus in the Wild [16.27391171541217]
単一焦点スタックからの畳み込みニューラルネットワークによる深度推定を提案する。
本手法では,画像アライメントにおいても,奥行きマップをエンドツーエンドで推定することができる。
提案するネットワークの一般化のために,商用カメラの特徴を現実的に再現するシミュレータを開発した。
論文 参考訳(メタデータ) (2022-07-20T05:23:29Z) - Learning to Deblur using Light Field Generated and Real Defocus Images [4.926805108788465]
デフォーカス・デブロワーリングは、デフォーカス・ボケの性質が空間的に変化するため、困難な作業である。
本稿では,光の強度を活用し,光源の欠点を克服する新しいディープデフォーカス・デブロアリング・ネットワークを提案する。
論文 参考訳(メタデータ) (2022-04-01T11:35:51Z) - Real-Time, Deep Synthetic Aperture Sonar (SAS) Autofocus [34.77467193499518]
合成開口ソナー(sas)は、送信/受信波形の正確な飛行時間計測を必要とする。
これを解決するために、画像再構成後の後処理ステップとして、Emphautofocusアルゴリズムを用いて、画像フォーカスを改善する。
これらの限界を克服し、データ駆動方式で重み付け関数を暗黙的に学習するための深層学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-18T15:16:29Z) - iToF2dToF: A Robust and Flexible Representation for Data-Driven
Time-of-Flight Imaging [26.17890136713725]
間接飛行時間(iToF)カメラは、有望な深度検出技術です。
マルチパス干渉(MPI)と低信号対雑音比(SNR)によって引き起こされるエラーが発生しやすい。
論文 参考訳(メタデータ) (2021-03-12T04:57:52Z) - Image Restoration by Deep Projected GSURE [115.57142046076164]
Ill-posed inverse problem は、デブロアリングや超解像など、多くの画像処理アプリケーションに現れる。
本稿では,一般化されたSteinUnbiased Risk Estimator(GSURE)の「投影変換」とCNNによる潜在画像のパラメータ化を含む損失関数の最小化に基づく,新たな画像復元フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-04T08:52:46Z) - Single Image Brightening via Multi-Scale Exposure Fusion with Hybrid
Learning [48.890709236564945]
小さいISOと小さな露光時間は、通常、背面または低い光条件下で画像をキャプチャするために使用される。
本稿では、そのような画像を明るくするために、単一の画像輝度化アルゴリズムを提案する。
提案アルゴリズムは,露出時間が大きい2つの仮想画像を生成するための,ユニークなハイブリッド学習フレームワークを含む。
論文 参考訳(メタデータ) (2020-07-04T08:23:07Z) - Rapid Whole Slide Imaging via Learning-based Two-shot Virtual
Autofocusing [57.90239401665367]
ホイルスライドイメージング(WSI)は、デジタル病理の新たな技術である。
本稿では,リフォーカスを行うための機械的調整に依存しないテキスト仮想オートフォーカスの概念を提案する。
論文 参考訳(メタデータ) (2020-03-14T13:40:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。