論文の概要: Addressing the Depth-of-Field Constraint: A New Paradigm for High Resolution Multi-Focus Image Fusion
- arxiv url: http://arxiv.org/abs/2510.19581v1
- Date: Wed, 22 Oct 2025 13:32:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:15.831009
- Title: Addressing the Depth-of-Field Constraint: A New Paradigm for High Resolution Multi-Focus Image Fusion
- Title(参考訳): 高分解能多焦点画像融合のための新しいパラダイム
- Authors: Luca Piano, Peng Huanwen, Radu Ciprian Bilcu,
- Abstract要約: マルチフォーカス画像融合(MFIF)は、光学レンズの奥行き制限(DOF)に対処する。
本稿では,高忠実かつ効率的な画像再構成のための蒸留変分オートエンコーダを用いた新しいMFIF手法VAEEDOFを提案する。
提案手法は, シームレスなアーティファクトフリーの融合画像を生成し, 合成シナリオと実世界のシナリオのギャップを埋める。
- 参考スコア(独自算出の注目度): 4.001780301402233
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-focus image fusion (MFIF) addresses the depth-of-field (DOF) limitations of optical lenses, where only objects within a specific range appear sharp. Although traditional and deep learning methods have advanced the field, challenges persist, including limited training data, domain gaps from synthetic datasets, and difficulties with regions lacking information. We propose VAEEDOF, a novel MFIF method that uses a distilled variational autoencoder for high-fidelity, efficient image reconstruction. Our fusion module processes up to seven images simultaneously, enabling robust fusion across diverse focus points. To address data scarcity, we introduce MattingMFIF, a new syntetic 4K dataset, simulating realistic DOF effects from real photographs. Our method achieves state-of-the-art results, generating seamless artifact-free fused images and bridging the gap between synthetic and real-world scenarios, offering a significant step forward in addressing complex MFIF challenges. The code, and weights are available here:
- Abstract(参考訳): MFIF(Multi-focus Image fusion)は、特定の範囲内の物体だけが鋭く見える光学レンズの奥行き(DOF)制限に対処する。
従来型およびディープラーニングの手法はこの分野を前進させたが、限られたトレーニングデータ、合成データセットからのドメインギャップ、情報の欠如した領域の難しさなど、課題は続いている。
本稿では,高忠実かつ効率的な画像再構成のための蒸留変分オートエンコーダを用いた新しいMFIF手法VAEEDOFを提案する。
私たちの融合モジュールは7つのイメージを同時に処理し、多様なフォーカスポイントにわたる堅牢な融合を可能にします。
データ不足に対処するために、実際の写真から現実的なDOF効果をシミュレートする新しい4KデータセットであるMattingMFIFを紹介する。
提案手法は, シームレスなアーティファクトフリーの融合画像を生成し, 合成シナリオと実世界のシナリオのギャップを埋めることにより, 複雑なMFIF課題に対処する上で重要な一歩となる。
コードとウェイトはここにある。
関連論文リスト
- UniCT Depth: Event-Image Fusion Based Monocular Depth Estimation with Convolution-Compensated ViT Dual SA Block [6.994911870644179]
ローカルおよびグローバルな特徴をモデル化するために,CNNとトランスフォーマーを統一するイベントイメージ融合手法UniCT Depthを提案する。
We show that UniCT Depth are outperforming existing image, event, and fusion-based monocular depth estimation method across key metrics。
論文 参考訳(メタデータ) (2025-07-26T13:29:48Z) - Efficient Depth- and Spatially-Varying Image Simulation for Defocus Deblur [16.9629875455607]
既存のオープンソースデータセットでトレーニングされたディープラーニングモデルは、多くの場合、ドメインギャップに直面し、現実世界の設定ではうまく機能しない。
実世界のデータによる微調整に依存しない,効率的でスケーラブルなデータセットアプローチを提案する。
提案手法は深度に依存したデフォーカスと空間的に変化する光学収差を同時にモデル化し、計算複雑性と高品質なRGB-Dデータセットの不足に対処する。
論文 参考訳(メタデータ) (2025-07-01T02:03:04Z) - Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - Bridging the Gap between Multi-focus and Multi-modal: A Focused
Integration Framework for Multi-modal Image Fusion [5.417493475406649]
MMIF(Multi-Modal Image fusion)は、異なるモダリティ画像からの貴重な情報を融合画像に統合する。
本稿では,協調型統合とモダリティ情報抽出のためのMMIFフレームワークを提案する。
提案アルゴリズムは、視覚知覚と定量的評価において最先端の手法を超越することができる。
論文 参考訳(メタデータ) (2023-11-03T12:58:39Z) - Searching a Compact Architecture for Robust Multi-Exposure Image Fusion [55.37210629454589]
2つの大きなスタブリングブロックは、画素の不一致や非効率な推論など、開発を妨げる。
本研究では,高機能なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを取り入れたアーキテクチャ検索に基づくパラダイムを提案する。
提案手法は様々な競争方式より優れており、一般的なシナリオではPSNRが3.19%向上し、不整合シナリオでは23.5%向上した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - MC-Blur: A Comprehensive Benchmark for Image Deblurring [127.6301230023318]
ほとんどの実世界の画像では、ブラーは動きやデフォーカスなど様々な要因によって引き起こされる。
我々は,MC-Blurと呼ばれる大規模マルチライク画像デブロアリングデータセットを新たに構築する。
MC-Blurデータセットに基づいて,異なるシナリオにおけるSOTA法の比較を行う。
論文 参考訳(メタデータ) (2021-12-01T02:10:42Z) - Light Field Reconstruction via Deep Adaptive Fusion of Hybrid Lenses [67.01164492518481]
本稿では,ハイブリットレンズを用いた高分解能光場(LF)画像の再構成問題について検討する。
本稿では,入力の特徴を包括的に活用できる新しいエンドツーエンド学習手法を提案する。
我々のフレームワークは、高解像度なLFデータ取得のコストを削減し、LFデータストレージと送信の恩恵を受ける可能性がある。
論文 参考訳(メタデータ) (2021-02-14T06:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。