論文の概要: Extending Depth of Field for Varifocal Multiview Images
- arxiv url: http://arxiv.org/abs/2409.19220v1
- Date: Sat, 28 Sep 2024 03:24:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 00:28:26.084540
- Title: Extending Depth of Field for Varifocal Multiview Images
- Title(参考訳): 可変焦点多視点画像のためのフィールド深さの延長
- Authors: Zhilong Li, Kejun Wu, Qiong Liu, You Yang,
- Abstract要約: 視野の深さを延ばすことは、新しい視覚的アプリケーションの要件を満たすための基本的なタスクです。
新たなデータ型である可変焦点マルチビュー画像は、EDoFを解くための新しいパラダイムとなる可能性がある。
本稿では、画像アライメント、画像最適化、画像融合を含むEDoFのエンドツーエンド手法を提案する。
- 参考スコア(独自算出の注目度): 9.356439228348998
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Optical imaging systems are generally limited by the depth of field because of the nature of the optics. Therefore, extending depth of field (EDoF) is a fundamental task for meeting the requirements of emerging visual applications. To solve this task, the common practice is using multi-focus images from a single viewpoint. This method can obtain acceptable quality of EDoF under the condition of fixed field of view, but it is only applicable to static scenes and the field of view is limited and fixed. An emerging data type, varifocal multiview images have the potential to become a new paradigm for solving the EDoF, because the data contains more field of view information than multi-focus images. To realize EDoF of varifocal multiview images, we propose an end-to-end method for the EDoF, including image alignment, image optimization and image fusion. Experimental results demonstrate the efficiency of the proposed method.
- Abstract(参考訳): 光イメージングシステムは通常、光学の性質のため磁場の深さによって制限される。
したがって、拡張深度(EDoF)は、出現する視覚的アプリケーションの要件を満たすための基本的なタスクである。
この課題を解決するために、単一の視点から多焦点画像を使用することが一般的である。
本手法は,固定視野条件下でのEDoFの許容品質を得ることができるが,静的シーンにのみ適用可能であり,視野が制限され固定されている。
新たなデータ型である可変焦点マルチビュー画像は、マルチフォーカス画像よりも視野情報が多いため、EDoFを解くための新たなパラダイムとなる可能性がある。
可変焦点多視点画像のEDoFを実現するために、画像アライメント、画像最適化、画像融合を含むEDoFのエンドツーエンド手法を提案する。
実験の結果,提案手法の有効性が示された。
関連論文リスト
- A Global Depth-Range-Free Multi-View Stereo Transformer Network with Pose Embedding [76.44979557843367]
本稿では,事前の深度範囲を排除した新しい多視点ステレオ(MVS)フレームワークを提案する。
長距離コンテキスト情報を集約するMDA(Multi-view Disparity Attention)モジュールを導入する。
ソース画像のエピポーラ線上のサンプリング点に対応する電流画素の品質を明示的に推定する。
論文 参考訳(メタデータ) (2024-11-04T08:50:16Z) - Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - Bridging the Gap between Multi-focus and Multi-modal: A Focused
Integration Framework for Multi-modal Image Fusion [5.417493475406649]
MMIF(Multi-Modal Image fusion)は、異なるモダリティ画像からの貴重な情報を融合画像に統合する。
本稿では,協調型統合とモダリティ情報抽出のためのMMIFフレームワークを提案する。
提案アルゴリズムは、視覚知覚と定量的評価において最先端の手法を超越することができる。
論文 参考訳(メタデータ) (2023-11-03T12:58:39Z) - BigFUSE: Global Context-Aware Image Fusion in Dual-View Light-Sheet
Fluorescence Microscopy with Image Formation Prior [40.22867974147714]
光シート蛍光顕微鏡(LSFM)における画像融合を安定化する大域的文脈認識画像フィルタBigFUSEを提案する。
デュアルビューLSFMに先立つ画像形成にインスパイアされた画像融合は、ベイズ理論を用いて焦点差境界を推定すると考えられる。
比較実験の結果,BigFUSEは情報を融合する際に構造化されたアーティファクトを排除できる最初のデュアルビューLSFMファサーであることがわかった。
論文 参考訳(メタデータ) (2023-09-05T00:05:09Z) - Fully Self-Supervised Depth Estimation from Defocus Clue [79.63579768496159]
スパース焦点スタックから深度を純粋に推定する自己教師型フレームワークを提案する。
筆者らのフレームワークは,深度とAIF画像の接地構造の必要性を回避し,より優れた予測を得られることを示す。
論文 参考訳(メタデータ) (2023-03-19T19:59:48Z) - Single Stage Virtual Try-on via Deformable Attention Flows [51.70606454288168]
仮想試行は、ショップ内服と基準人物画像が与えられた写真リアルなフィッティング結果を生成することを目的としている。
マルチフロー推定に変形性アテンションスキームを適用した,変形性アテンションフロー(DAFlow)を新たに開発した。
提案手法は,定性的かつ定量的に最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-07-19T10:01:31Z) - MC-Blur: A Comprehensive Benchmark for Image Deblurring [127.6301230023318]
ほとんどの実世界の画像では、ブラーは動きやデフォーカスなど様々な要因によって引き起こされる。
我々は,MC-Blurと呼ばれる大規模マルチライク画像デブロアリングデータセットを新たに構築する。
MC-Blurデータセットに基づいて,異なるシナリオにおけるSOTA法の比較を行う。
論文 参考訳(メタデータ) (2021-12-01T02:10:42Z) - Bridging Unsupervised and Supervised Depth from Focus via All-in-Focus
Supervision [10.547816678110417]
提案手法は、地上の真理深度で監督的に訓練するか、AiF画像で監督的に訓練することができる。
種々の実験において,本手法は定量的かつ定性的に,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-24T17:09:13Z) - Towards Reducing Severe Defocus Spread Effects for Multi-Focus Image
Fusion via an Optimization Based Strategy [22.29205225281694]
マルチフォーカス画像融合(MFF)はオールインフォーカス画像を生成する一般的な技術である。
本稿では,デフォーカス拡散効果を低減するための最適化手法を提案する。
実世界データセット上で行った実験は,提案モデルの優位性を検証した。
論文 参考訳(メタデータ) (2020-12-29T09:26:41Z) - Real-MFF: A Large Realistic Multi-focus Image Dataset with Ground Truth [58.226535803985804]
我々はReal-MFFと呼ばれる大規模で現実的なマルチフォーカスデータセットを導入する。
データセットは、710対のソースイメージと対応する接地真理画像を含む。
このデータセット上で10の典型的なマルチフォーカスアルゴリズムを図示のために評価する。
論文 参考訳(メタデータ) (2020-03-28T12:33:46Z) - Learning Wavefront Coding for Extended Depth of Field Imaging [4.199844472131922]
拡張深度画像(EDoF)は難題である。
回折光学素子による波面符号化を応用したEDoFの計算画像化手法を提案する。
深部3Dシーンやブロードバンド画像など,さまざまなシナリオにおいて,最小限の成果が得られた。
論文 参考訳(メタデータ) (2019-12-31T17:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。