論文の概要: AFUNet: Cross-Iterative Alignment-Fusion Synergy for HDR Reconstruction via Deep Unfolding Paradigm
- arxiv url: http://arxiv.org/abs/2506.23537v1
- Date: Mon, 30 Jun 2025 06:03:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.934644
- Title: AFUNet: Cross-Iterative Alignment-Fusion Synergy for HDR Reconstruction via Deep Unfolding Paradigm
- Title(参考訳): AFUNet:ディープ・アンフォールディング・パラダイムによるHDR再建のためのクロスイテレーティブアライメント・フュージョン・シナジー
- Authors: Xinyue Li, Zhangkai Ni, Wenhan Yang,
- Abstract要約: 既存の学習ベース手法は,マルチ露光LDR入力から動的範囲を拡張してHDR画像を効果的に再構成し,ディテールを向上する。
本稿では,これらの制約に対処するため,横断的アライメントとフュージョン深層展開ネットワーク(AFUNet)を提案する。
本手法は最大A Posteriori (MAP) 推定視点から多露光HDR再構成を定式化する。
- 参考スコア(独自算出の注目度): 41.09028235123695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing learning-based methods effectively reconstruct HDR images from multi-exposure LDR inputs with extended dynamic range and improved detail, but they rely more on empirical design rather than theoretical foundation, which can impact their reliability. To address these limitations, we propose the cross-iterative Alignment and Fusion deep Unfolding Network (AFUNet), where HDR reconstruction is systematically decoupled into two interleaved subtasks -- alignment and fusion -- optimized through alternating refinement, achieving synergy between the two subtasks to enhance the overall performance. Our method formulates multi-exposure HDR reconstruction from a Maximum A Posteriori (MAP) estimation perspective, explicitly incorporating spatial correspondence priors across LDR images and naturally bridging the alignment and fusion subproblems through joint constraints. Building on the mathematical foundation, we reimagine traditional iterative optimization through unfolding -- transforming the conventional solution process into an end-to-end trainable AFUNet with carefully designed modules that work progressively. Specifically, each iteration of AFUNet incorporates an Alignment-Fusion Module (AFM) that alternates between a Spatial Alignment Module (SAM) for alignment and a Channel Fusion Module (CFM) for adaptive feature fusion, progressively bridging misaligned content and exposure discrepancies. Extensive qualitative and quantitative evaluations demonstrate AFUNet's superior performance, consistently surpassing state-of-the-art methods. Our code is available at: https://github.com/eezkni/AFUNet
- Abstract(参考訳): 既存の学習ベース手法では,複数露光LDR入力からのHDR画像を動的範囲の拡張と細部の改善により効果的に再構成するが,その信頼性に影響を及ぼすような理論的基礎よりも経験的設計に頼っている。
これらの制約に対処するために,HDR再構成を2つのインターリーブされたサブタスク(アライメントとフュージョン)に体系的に分離し,2つのサブタスク間の相乗効果を達成し,全体的な性能を向上させるクロスリーブ・アライメント・フュージョン・アンフォールディング・ネットワーク(AFUNet)を提案する。
提案手法は,最大A Posteriori(MAP)推定の観点からのマルチ露光HDR再構成を定式化し,LDR画像間の空間的対応を明示的に取り入れ,関節拘束によるアライメントと融合のサブプロブレムを自然にブリッジする。
数学的基盤の上に構築された私たちは、展開を通じて従来の反復最適化を想像します -- 従来型のソリューションプロセスを、段階的に機能する慎重に設計されたモジュールを備えた、エンドツーエンドのトレーニング可能なAFUNetに変換するのです。
具体的には、AFUNetの各イテレーションには、アライメントのための空間アライメントモジュール(SAM)と、適応的な特徴融合のためのチャネルフュージョンモジュール(CFM)とを交互に切り替えるアライメント・フュージョンモジュール(AFM)が組み込まれている。
大規模な定性的および定量的評価は、AFUNetの優れた性能を示し、最先端の手法を一貫して上回っている。
私たちのコードは、https://github.com/eezkni/AFUNetで利用可能です。
関連論文リスト
- UniFuse: A Unified All-in-One Framework for Multi-Modal Medical Image Fusion Under Diverse Degradations and Misalignments [20.348314952092792]
現在のマルチモーダル医療画像融合は、典型的には、ソース画像は高品質で、ピクセルレベルで完全に整列していると仮定する。
劣化認識学習モジュールを組み込むことで、UniFuseは入力画像から多方向情報をシームレスに統合する。
本稿では,LoRA の原理に基づく適応型 LoRA Synergistic Network (ALSN) を取り入れた,ユニバーサル・フィーチャー・リカバリ・アンド・フュージョン・モジュールを提案する。
論文 参考訳(メタデータ) (2025-06-28T02:44:22Z) - Improving Bracket Image Restoration and Enhancement with Flow-guided Alignment and Enhanced Feature Aggregation [32.69740459810521]
フローガイド特徴アライメントモジュール(FFAM)と拡張特徴アグリゲーションモジュール(EFAM)による多重露光とアグリゲーションを改善するIREANetを提案する。
実験により,提案したIREANetは従来の手法と比較して最先端性能を示した。
論文 参考訳(メタデータ) (2024-04-16T07:46:55Z) - Improving Misaligned Multi-modality Image Fusion with One-stage
Progressive Dense Registration [67.23451452670282]
多モード画像間の相違は、画像融合の課題を引き起こす。
マルチスケールプログレッシブ・センス・レジストレーション方式を提案する。
このスキームは、一段階最適化のみで粗大な登録を行う。
論文 参考訳(メタデータ) (2023-08-22T03:46:24Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Searching a Compact Architecture for Robust Multi-Exposure Image Fusion [55.37210629454589]
2つの大きなスタブリングブロックは、画素の不一致や非効率な推論など、開発を妨げる。
本研究では,高機能なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを取り入れたアーキテクチャ検索に基づくパラダイムを提案する。
提案手法は様々な競争方式より優れており、一般的なシナリオではPSNRが3.19%向上し、不整合シナリオでは23.5%向上した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - Light Field Reconstruction via Deep Adaptive Fusion of Hybrid Lenses [67.01164492518481]
本稿では,ハイブリットレンズを用いた高分解能光場(LF)画像の再構成問題について検討する。
本稿では,入力の特徴を包括的に活用できる新しいエンドツーエンド学習手法を提案する。
我々のフレームワークは、高解像度なLFデータ取得のコストを削減し、LFデータストレージと送信の恩恵を受ける可能性がある。
論文 参考訳(メタデータ) (2021-02-14T06:44:47Z) - MFIF-GAN: A New Generative Adversarial Network for Multi-Focus Image
Fusion [29.405149234582623]
マルチフォーカス画像融合(MFIF)は、オールインフォーカス画像を得るための有望な技術である。
MFIFの研究動向の1つは、フォーカス/デフォーカス境界(FDB)周辺のデフォーカス拡散効果(DSE)を回避することである。
我々は,MFIF-GANと呼ばれるネットワークを用いて,前景領域が対応する対象よりも正確に大きいフォーカスマップを生成する。
論文 参考訳(メタデータ) (2020-09-21T09:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。