論文の概要: Addressing the Depth-of-Field Constraint: A New Paradigm for High Resolution Multi-Focus Image Fusion
- arxiv url: http://arxiv.org/abs/2510.19581v1
- Date: Wed, 22 Oct 2025 13:32:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:15.831009
- Title: Addressing the Depth-of-Field Constraint: A New Paradigm for High Resolution Multi-Focus Image Fusion
- Title(参考訳): 高分解能多焦点画像融合のための新しいパラダイム
- Authors: Luca Piano, Peng Huanwen, Radu Ciprian Bilcu,
- Abstract要約: マルチフォーカス画像融合(MFIF)は、光学レンズの奥行き制限(DOF)に対処する。
本稿では,高忠実かつ効率的な画像再構成のための蒸留変分オートエンコーダを用いた新しいMFIF手法VAEEDOFを提案する。
提案手法は, シームレスなアーティファクトフリーの融合画像を生成し, 合成シナリオと実世界のシナリオのギャップを埋める。
- 参考スコア(独自算出の注目度): 4.001780301402233
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-focus image fusion (MFIF) addresses the depth-of-field (DOF) limitations of optical lenses, where only objects within a specific range appear sharp. Although traditional and deep learning methods have advanced the field, challenges persist, including limited training data, domain gaps from synthetic datasets, and difficulties with regions lacking information. We propose VAEEDOF, a novel MFIF method that uses a distilled variational autoencoder for high-fidelity, efficient image reconstruction. Our fusion module processes up to seven images simultaneously, enabling robust fusion across diverse focus points. To address data scarcity, we introduce MattingMFIF, a new syntetic 4K dataset, simulating realistic DOF effects from real photographs. Our method achieves state-of-the-art results, generating seamless artifact-free fused images and bridging the gap between synthetic and real-world scenarios, offering a significant step forward in addressing complex MFIF challenges. The code, and weights are available here:
- Abstract(参考訳): MFIF(Multi-focus Image fusion)は、特定の範囲内の物体だけが鋭く見える光学レンズの奥行き(DOF)制限に対処する。
従来型およびディープラーニングの手法はこの分野を前進させたが、限られたトレーニングデータ、合成データセットからのドメインギャップ、情報の欠如した領域の難しさなど、課題は続いている。
本稿では,高忠実かつ効率的な画像再構成のための蒸留変分オートエンコーダを用いた新しいMFIF手法VAEEDOFを提案する。
私たちの融合モジュールは7つのイメージを同時に処理し、多様なフォーカスポイントにわたる堅牢な融合を可能にします。
データ不足に対処するために、実際の写真から現実的なDOF効果をシミュレートする新しい4KデータセットであるMattingMFIFを紹介する。
提案手法は, シームレスなアーティファクトフリーの融合画像を生成し, 合成シナリオと実世界のシナリオのギャップを埋めることにより, 複雑なMFIF課題に対処する上で重要な一歩となる。
コードとウェイトはここにある。
関連論文リスト
- Gradient-based multi-focus image fusion with focus-aware saliency enhancement [18.335216974790754]
MFIF(Multi-focus Image fusion)は、複数の部分集中インプットから全焦点画像を取得することを目的としている。
本稿では,高品質な融合境界を生成する重要な境界拡張に基づくMFIF法を提案する。
本手法は主観的評価と客観的評価の両面で,12の最先端手法を一貫して上回っている。
論文 参考訳(メタデータ) (2025-09-26T14:20:44Z) - UniCT Depth: Event-Image Fusion Based Monocular Depth Estimation with Convolution-Compensated ViT Dual SA Block [6.994911870644179]
ローカルおよびグローバルな特徴をモデル化するために,CNNとトランスフォーマーを統一するイベントイメージ融合手法UniCT Depthを提案する。
We show that UniCT Depth are outperforming existing image, event, and fusion-based monocular depth estimation method across key metrics。
論文 参考訳(メタデータ) (2025-07-26T13:29:48Z) - Efficient Depth- and Spatially-Varying Image Simulation for Defocus Deblur [16.9629875455607]
既存のオープンソースデータセットでトレーニングされたディープラーニングモデルは、多くの場合、ドメインギャップに直面し、現実世界の設定ではうまく機能しない。
実世界のデータによる微調整に依存しない,効率的でスケーラブルなデータセットアプローチを提案する。
提案手法は深度に依存したデフォーカスと空間的に変化する光学収差を同時にモデル化し、計算複雑性と高品質なRGB-Dデータセットの不足に対処する。
論文 参考訳(メタデータ) (2025-07-01T02:03:04Z) - Multi-focal Conditioned Latent Diffusion for Person Image Synthesis [59.113899155476005]
遅延拡散モデル(LDM)は高解像度画像生成において強力な機能を示した。
これらの制約に対処する多焦点条件付き潜時拡散法(MCLD)を提案する。
本手法では,顔の同一性やテクスチャ固有の情報を効果的に統合する多焦点条件アグリゲーションモジュールを利用する。
論文 参考訳(メタデータ) (2025-03-19T20:50:10Z) - A Dual Domain Multi-exposure Image Fusion Network based on the
Spatial-Frequency Integration [57.14745782076976]
マルチ露光画像融合は、異なる露光で画像を統合することにより、単一の高ダイナミック画像を生成することを目的としている。
本稿では,MEF-SFI と呼ばれる空間周波数統合フレームワークによるマルチ露光画像融合の新たな視点を提案する。
提案手法は,最先端のマルチ露光画像融合手法に対する視覚的近似核融合結果を実現する。
論文 参考訳(メタデータ) (2023-12-17T04:45:15Z) - Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - Bridging the Gap between Multi-focus and Multi-modal: A Focused
Integration Framework for Multi-modal Image Fusion [5.417493475406649]
MMIF(Multi-Modal Image fusion)は、異なるモダリティ画像からの貴重な情報を融合画像に統合する。
本稿では,協調型統合とモダリティ情報抽出のためのMMIFフレームワークを提案する。
提案アルゴリズムは、視覚知覚と定量的評価において最先端の手法を超越することができる。
論文 参考訳(メタデータ) (2023-11-03T12:58:39Z) - Hybrid-Supervised Dual-Search: Leveraging Automatic Learning for
Loss-free Multi-Exposure Image Fusion [60.221404321514086]
マルチ露光画像融合(MEF)は、様々な露光レベルを表すデジタルイメージングの限界に対処するための重要な解決策である。
本稿では、ネットワーク構造と損失関数の両方を自動設計するための二段階最適化探索方式であるHSDS-MEFと呼ばれるMEFのためのハイブリッドスーパービジョンデュアルサーチ手法を提案する。
論文 参考訳(メタデータ) (2023-09-03T08:07:26Z) - Searching a Compact Architecture for Robust Multi-Exposure Image Fusion [55.37210629454589]
2つの大きなスタブリングブロックは、画素の不一致や非効率な推論など、開発を妨げる。
本研究では,高機能なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを取り入れたアーキテクチャ検索に基づくパラダイムを提案する。
提案手法は様々な競争方式より優れており、一般的なシナリオではPSNRが3.19%向上し、不整合シナリオでは23.5%向上した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - MC-Blur: A Comprehensive Benchmark for Image Deblurring [127.6301230023318]
ほとんどの実世界の画像では、ブラーは動きやデフォーカスなど様々な要因によって引き起こされる。
我々は,MC-Blurと呼ばれる大規模マルチライク画像デブロアリングデータセットを新たに構築する。
MC-Blurデータセットに基づいて,異なるシナリオにおけるSOTA法の比較を行う。
論文 参考訳(メタデータ) (2021-12-01T02:10:42Z) - Light Field Reconstruction via Deep Adaptive Fusion of Hybrid Lenses [67.01164492518481]
本稿では,ハイブリットレンズを用いた高分解能光場(LF)画像の再構成問題について検討する。
本稿では,入力の特徴を包括的に活用できる新しいエンドツーエンド学習手法を提案する。
我々のフレームワークは、高解像度なLFデータ取得のコストを削減し、LFデータストレージと送信の恩恵を受ける可能性がある。
論文 参考訳(メタデータ) (2021-02-14T06:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。