論文の概要: A learning-based view extrapolation method for axial super-resolution
- arxiv url: http://arxiv.org/abs/2103.06510v1
- Date: Thu, 11 Mar 2021 07:22:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 14:39:41.758783
- Title: A learning-based view extrapolation method for axial super-resolution
- Title(参考訳): 軸超解像の学習に基づくビュー外挿法
- Authors: Zhaolin Xiao, Jinglei Shi, Xiaoran Jiang, Christine Guillemot
- Abstract要約: 軸光界分解能は、再焦点によって異なる深さで特徴を区別する能力を指します。
せん断エピポーラ平面画像の軸体積から新しい視点を推定する学習に基づく手法を提案する。
- 参考スコア(独自算出の注目度): 52.748944517480155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Axial light field resolution refers to the ability to distinguish features at
different depths by refocusing. The axial refocusing precision corresponds to
the minimum distance in the axial direction between two distinguishable
refocusing planes. High refocusing precision can be essential for some light
field applications like microscopy. In this paper, we propose a learning-based
method to extrapolate novel views from axial volumes of sheared epipolar plane
images (EPIs). As extended numerical aperture (NA) in classical imaging, the
extrapolated light field gives re-focused images with a shallower depth of
field (DOF), leading to more accurate refocusing results. Most importantly, the
proposed approach does not need accurate depth estimation. Experimental results
with both synthetic and real light fields show that the method not only works
well for light fields with small baselines as those captured by plenoptic
cameras (especially for the plenoptic 1.0 cameras), but also applies to light
fields with larger baselines.
- Abstract(参考訳): 軸光界分解能は、再焦点によって異なる深さで特徴を区別する能力を指します。
軸方向再焦点精度は、2つの識別可能な再焦点平面間の軸方向の最小距離に対応する。
高い再焦点精度は、顕微鏡のようないくつかの光場応用に必須である。
本論文では,せん断エピポーラ平面画像(EPI)の軸体積から新しい視点を抽出する学習に基づく手法を提案する。
古典的画像における拡張数値開口(NA)として、外挿光場は、より浅い深度(DOF)で焦点を合わせ、より正確な再焦点結果をもたらす。
最も重要なのは,提案手法が正確な深さ推定を必要としないことだ。
合成光と実光の両方の実験結果から、この方法は、プレノプトカメラ(特にプレノプト 1.0 カメラ)でキャプチャされたような小さなベースラインを持つ光フィールドだけでなく、より大きなベースラインを持つ光フィールドにも適用できることが示された。
関連論文リスト
- Generalizable Non-Line-of-Sight Imaging with Learnable Physical Priors [52.195637608631955]
非視線画像(NLOS)は、その潜在的な応用により注目されている。
既存のNLOS再構成アプローチは、経験的物理的前提に依存して制約される。
本稿では,Learningable Path Compensation(LPC)とAdaptive Phasor Field(APF)の2つの主要な設計を含む,学習に基づく新しいソリューションを提案する。
論文 参考訳(メタデータ) (2024-09-21T04:39:45Z) - Robust Depth Enhancement via Polarization Prompt Fusion Tuning [112.88371907047396]
様々な深度センサによる不正確な深度測定を改善するために偏光イメージングを利用するフレームワークを提案する。
まず、偏光データとセンサ深度マップから高密度で完全な深度マップを推定するために、ニューラルネットワークを訓練した学習ベースの戦略を採用する。
大規模データセット上で事前学習したRGBモデルを有効に活用するためのPPFT(Polarization Prompt Fusion Tuning)戦略を提案する。
論文 参考訳(メタデータ) (2024-04-05T17:55:33Z) - Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - Blur aware metric depth estimation with multi-focus plenoptic cameras [8.508198765617196]
多焦点レンズカメラからの原画像のみを用いた新しい距離深度推定アルゴリズムを提案する。
提案手法は、焦点距離の異なる複数のマイクロレンズを用いるマルチフォーカス構成に特に適している。
論文 参考訳(メタデータ) (2023-08-08T13:38:50Z) - End-to-end Learning for Joint Depth and Image Reconstruction from
Diffracted Rotation [10.896567381206715]
回折回転から深度を学習する新しいエンド・ツー・エンド学習手法を提案する。
提案手法は, 単分子深度推定のタスクにおいて既存の手法よりもはるかに少ない複雑なモデルと少ないトレーニングデータを必要とする。
論文 参考訳(メタデータ) (2022-04-14T16:14:37Z) - Wild ToFu: Improving Range and Quality of Indirect Time-of-Flight Depth
with RGB Fusion in Challenging Environments [56.306567220448684]
本稿では,ノイズの多い生のI-ToF信号とRGB画像を用いた学習に基づくエンド・ツー・エンドの深度予測ネットワークを提案する。
最終深度マップでは,ベースラインアプローチと比較して40%以上のRMSE改善が見られた。
論文 参考訳(メタデータ) (2021-12-07T15:04:14Z) - Spatially-Variant CNN-based Point Spread Function Estimation for Blind
Deconvolution and Depth Estimation in Optical Microscopy [6.09170287691728]
薄めながら平らでない物体の光顕微鏡画像の解像度を向上する手法を提案する。
畳み込みニューラルネットワーク(CNN)を用いた空間変動点スプレッド関数(PSF)モデルのパラメータを推定する。
本手法は,理想条件下での2乗ピアソン相関係数0.99で画像自体からPSFパラメータを復元する。
論文 参考訳(メタデータ) (2020-10-08T14:20:16Z) - Learning Light Field Angular Super-Resolution via a Geometry-Aware
Network [101.59693839475783]
そこで本研究では,広いベースラインを持つスパースサンプリング光場を超解き放つことを目的とした,エンド・ツー・エンドの学習ベースアプローチを提案する。
提案手法は,実行時間48$times$を節約しつつ,2番目のベストメソッドのPSNRを平均2dBまで改善する。
論文 参考訳(メタデータ) (2020-02-26T02:36:57Z) - Learning Wavefront Coding for Extended Depth of Field Imaging [4.199844472131922]
拡張深度画像(EDoF)は難題である。
回折光学素子による波面符号化を応用したEDoFの計算画像化手法を提案する。
深部3Dシーンやブロードバンド画像など,さまざまなシナリオにおいて,最小限の成果が得られた。
論文 参考訳(メタデータ) (2019-12-31T17:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。