論文の概要: MFIF-GAN: A New Generative Adversarial Network for Multi-Focus Image
Fusion
- arxiv url: http://arxiv.org/abs/2009.09718v4
- Date: Mon, 9 Nov 2020 03:36:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 05:08:51.663049
- Title: MFIF-GAN: A New Generative Adversarial Network for Multi-Focus Image
Fusion
- Title(参考訳): MFIF-GAN - マルチフォーカス画像融合のための新しい生成逆ネットワーク
- Authors: Yicheng Wang, Shuang Xu, Junmin Liu, Zixiang Zhao, Chunxia Zhang,
Jiangshe Zhang
- Abstract要約: マルチフォーカス画像融合(MFIF)は、オールインフォーカス画像を得るための有望な技術である。
MFIFの研究動向の1つは、フォーカス/デフォーカス境界(FDB)周辺のデフォーカス拡散効果(DSE)を回避することである。
我々は,MFIF-GANと呼ばれるネットワークを用いて,前景領域が対応する対象よりも正確に大きいフォーカスマップを生成する。
- 参考スコア(独自算出の注目度): 29.405149234582623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-Focus Image Fusion (MFIF) is a promising image enhancement technique to
obtain all-in-focus images meeting visual needs and it is a precondition of
other computer vision tasks. One of the research trends of MFIF is to avoid the
defocus spread effect (DSE) around the focus/defocus boundary (FDB). In this
paper,we propose a network termed MFIF-GAN to attenuate the DSE by generating
focus maps in which the foreground region are correctly larger than the
corresponding objects. The Squeeze and Excitation Residual module is employed
in the network. By combining the prior knowledge of training condition, this
network is trained on a synthetic dataset based on an {\alpha}-matte model. In
addition, the reconstruction and gradient regularization terms are combined in
the loss functions to enhance the boundary details and improve the quality of
fused images. Extensive experiments demonstrate that the MFIF-GAN outperforms
several state-of-the-art (SOTA) methods in visual perception, quantitative
analysis as well as efficiency. Moreover, the edge diffusion and contraction
module is firstly proposed to verify that focus maps generated by our method
are accurate at the pixel level.
- Abstract(参考訳): マルチフォーカス画像融合(mfif)は、視覚ニーズを満たすオールインフォーカス画像を得るための有望な画像拡張技術であり、他のコンピュータビジョンタスクの前提条件である。
MFIFの研究動向の1つは、フォーカス/デフォーカス境界(FDB)周辺のデフォーカス拡散効果(DSE)を回避することである。
本稿では,前景領域が対応する対象よりも正確に大きい焦点マップを生成することにより,DSEを減衰させるMFIF-GANというネットワークを提案する。
ネットワークにはSqueeze and Excitation Residualモジュールが使用されている。
トレーニング条件の事前知識を組み合わせることで、このネットワークは {\alpha}-matteモデルに基づいた合成データセットに基づいてトレーニングされる。
さらに、損失関数に再構成項と勾配正規化項を組み合わせ、境界の詳細を高め、融合画像の品質を向上させる。
広汎な実験により、MFIF-GANは視覚知覚、定量的分析および効率性においていくつかの最先端(SOTA)手法より優れていることが示された。
さらに,まずエッジ拡散・縮小モジュールを提案し,本手法で生成したフォーカスマップが画素レベルで正確であることを検証した。
関連論文リスト
- MFCLIP: Multi-modal Fine-grained CLIP for Generalizable Diffusion Face Forgery Detection [64.29452783056253]
フォトリアリスティック・フェイスジェネレーション手法の急速な発展は、社会やアカデミックにおいて大きな関心を集めている。
既存のアプローチは主に画像モダリティを用いて顔の偽造パターンをキャプチャするが、きめ細かいノイズやテキストのような他のモダリティは完全には探索されていない。
そこで本研究では,画像ノイズの多点にわたる包括的かつきめ細かなフォージェリートレースをマイニングする,MFCLIP(MF-modal Fine-fine-fine-fine-fine-fine CLIP)モデルを提案する。
論文 参考訳(メタデータ) (2024-09-15T13:08:59Z) - Fiducial Focus Augmentation for Facial Landmark Detection [4.433764381081446]
本稿では,モデルによる顔構造理解を高めるために,新しい画像強調手法を提案する。
我々は,Deep Canonical correlation Analysis (DCCA) に基づく損失を考慮した,シームズアーキテクチャに基づくトレーニング機構を採用している。
提案手法は,様々なベンチマークデータセットにおいて,最先端のアプローチよりも優れている。
論文 参考訳(メタデータ) (2024-02-23T01:34:00Z) - JoReS-Diff: Joint Retinex and Semantic Priors in Diffusion Model for Low-light Image Enhancement [69.6035373784027]
低照度画像強調(LLIE)は条件付き拡散モデルを用いて有望な性能を実現している。
従来手法は、タスク固有の条件戦略の十分な定式化の重要性を無視するものであった。
本稿では,Retinex および semantic-based pre-processing condition を付加した新しいアプローチである JoReS-Diff を提案する。
論文 参考訳(メタデータ) (2023-12-20T08:05:57Z) - Guided Image Restoration via Simultaneous Feature and Image Guided
Fusion [67.30078778732998]
本稿では,SFIGFネットワークを提案する。
GF ( guided filter) のメカニズムに従って, 特徴量と画像レベルの誘導核融合を考察する。
特徴領域と画像領域の両方で誘導融合が実装されているため,提案したSFIGFは文脈情報とテキスト情報の両方を忠実に再構築することが期待される。
論文 参考訳(メタデータ) (2023-12-14T12:15:45Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Bridging the Gap between Multi-focus and Multi-modal: A Focused
Integration Framework for Multi-modal Image Fusion [5.417493475406649]
MMIF(Multi-Modal Image fusion)は、異なるモダリティ画像からの貴重な情報を融合画像に統合する。
本稿では,協調型統合とモダリティ情報抽出のためのMMIFフレームワークを提案する。
提案アルゴリズムは、視覚知覚と定量的評価において最先端の手法を超越することができる。
論文 参考訳(メタデータ) (2023-11-03T12:58:39Z) - BigFUSE: Global Context-Aware Image Fusion in Dual-View Light-Sheet
Fluorescence Microscopy with Image Formation Prior [40.22867974147714]
光シート蛍光顕微鏡(LSFM)における画像融合を安定化する大域的文脈認識画像フィルタBigFUSEを提案する。
デュアルビューLSFMに先立つ画像形成にインスパイアされた画像融合は、ベイズ理論を用いて焦点差境界を推定すると考えられる。
比較実験の結果,BigFUSEは情報を融合する際に構造化されたアーティファクトを排除できる最初のデュアルビューLSFMファサーであることがわかった。
論文 参考訳(メタデータ) (2023-09-05T00:05:09Z) - Hybrid-Supervised Dual-Search: Leveraging Automatic Learning for
Loss-free Multi-Exposure Image Fusion [60.221404321514086]
マルチ露光画像融合(MEF)は、様々な露光レベルを表すデジタルイメージングの限界に対処するための重要な解決策である。
本稿では、ネットワーク構造と損失関数の両方を自動設計するための二段階最適化探索方式であるHSDS-MEFと呼ばれるMEFのためのハイブリッドスーパービジョンデュアルサーチ手法を提案する。
論文 参考訳(メタデータ) (2023-09-03T08:07:26Z) - An Interactively Reinforced Paradigm for Joint Infrared-Visible Image
Fusion and Saliency Object Detection [59.02821429555375]
この研究は、野生の隠れた物体の発見と位置決めに焦点をあて、無人のシステムに役立てる。
経験的分析により、赤外線と可視画像融合(IVIF)は、難しい物体の発見を可能にする。
マルチモーダル・サリエント・オブジェクト検出(SOD)は、画像内の物体の正確な空間的位置を正確に記述する。
論文 参考訳(メタデータ) (2023-05-17T06:48:35Z) - Towards Reducing Severe Defocus Spread Effects for Multi-Focus Image
Fusion via an Optimization Based Strategy [22.29205225281694]
マルチフォーカス画像融合(MFF)はオールインフォーカス画像を生成する一般的な技術である。
本稿では,デフォーカス拡散効果を低減するための最適化手法を提案する。
実世界データセット上で行った実験は,提案モデルの優位性を検証した。
論文 参考訳(メタデータ) (2020-12-29T09:26:41Z) - FFusionCGAN: An end-to-end fusion method for few-focus images using
conditional GAN in cytopathological digital slides [0.0]
マルチフォーカス画像融合技術は、焦点深度の異なる画像を、ほとんどの物体が焦点を合わせている画像に圧縮する。
本稿では,条件付き生成対向ネットワーク(GAN)に基づく単一焦点画像や少数焦点画像から融合画像を生成する新しい手法を提案する。
ネットワークを生成モデルに統合することにより、生成した融合画像の品質を効果的に向上する。
論文 参考訳(メタデータ) (2020-01-03T02:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。