論文の概要: FFusionCGAN: An end-to-end fusion method for few-focus images using
conditional GAN in cytopathological digital slides
- arxiv url: http://arxiv.org/abs/2001.00692v1
- Date: Fri, 3 Jan 2020 02:13:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-14 18:14:46.200784
- Title: FFusionCGAN: An end-to-end fusion method for few-focus images using
conditional GAN in cytopathological digital slides
- Title(参考訳): ffusioncgan : 細胞病理デジタルスライドにおける条件付きganを用いた端対端融合法
- Authors: Xiebo Geng (1 and 4), Sibo Liua (1 and 4), Wei Han (1), Xu Li (1),
Jiabo Ma (1), Jingya Yu (1), Xiuli Liu (1), Sahoqun Zeng (1), Li Chen (2 and
3), Shenghua Cheng (1 and 3) ((1) Britton Chance Center for Biomedical
Photonics, Wuhan National Laboratory for Optoelectronics-Huazhong University
of Science and Technology, China,(2) Department of Clinical Laboratory,
Tongji Hospital, Huazhong University of Science and Technology, China, (3)
Corresponding author, (4) Equal contribution to this work)
- Abstract要約: マルチフォーカス画像融合技術は、焦点深度の異なる画像を、ほとんどの物体が焦点を合わせている画像に圧縮する。
本稿では,条件付き生成対向ネットワーク(GAN)に基づく単一焦点画像や少数焦点画像から融合画像を生成する新しい手法を提案する。
ネットワークを生成モデルに統合することにより、生成した融合画像の品質を効果的に向上する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-focus image fusion technologies compress different focus depth images
into an image in which most objects are in focus. However, although existing
image fusion techniques, including traditional algorithms and deep
learning-based algorithms, can generate high-quality fused images, they need
multiple images with different focus depths in the same field of view. This
criterion may not be met in some cases where time efficiency is required or the
hardware is insufficient. The problem is especially prominent in large-size
whole slide images. This paper focused on the multi-focus image fusion of
cytopathological digital slide images, and proposed a novel method for
generating fused images from single-focus or few-focus images based on
conditional generative adversarial network (GAN). Through the adversarial
learning of the generator and discriminator, the method is capable of
generating fused images with clear textures and large depth of field. Combined
with the characteristics of cytopathological images, this paper designs a new
generator architecture combining U-Net and DenseBlock, which can effectively
improve the network's receptive field and comprehensively encode image
features. Meanwhile, this paper develops a semantic segmentation network that
identifies the blurred regions in cytopathological images. By integrating the
network into the generative model, the quality of the generated fused images is
effectively improved. Our method can generate fused images from only
single-focus or few-focus images, thereby avoiding the problem of collecting
multiple images of different focus depths with increased time and hardware
costs. Furthermore, our model is designed to learn the direct mapping of input
source images to fused images without the need to manually design complex
activity level measurements and fusion rules as in traditional methods.
- Abstract(参考訳): マルチフォーカス画像融合技術は、多くの物体が焦点を合わせている画像に、異なるフォーカス深度画像を圧縮する。
しかし、従来のアルゴリズムやディープラーニングベースのアルゴリズムを含む既存の画像融合技術は高品質な融合画像を生成することができるが、同じ視野で異なる焦点深度を持つ複数の画像が必要である。
この基準は、時間効率が要求される場合やハードウェアが不十分な場合では満たされない。
この問題は大きなスライド画像全体において特に顕著である。
本稿では, 細胞病理学的デジタルスライド画像の多焦点画像融合に着目し, 条件生成対向ネットワーク(GAN)に基づく単一焦点画像や少数焦点画像から融合画像を生成する新しい手法を提案する。
ジェネレータと判別器の対角学習により、鮮明なテクスチャと広い被写界深度を有する融合画像を生成することができる。
細胞病理画像の特徴と組み合わせて,U-NetとDenseBlockを組み合わせた新しいジェネレータアーキテクチャを設計し,ネットワークの受容領域を効果的に改善し,画像特徴を包括的に符号化する。
本稿では,細胞病理学的画像のぼやけた領域を識別するセマンティックセグメンテーションネットワークを開発した。
ネットワークを生成モデルに統合することにより、生成した融合画像の品質を効果的に向上する。
本手法では,単焦点画像または少数焦点画像のみから融合画像を生成することができ,時間とハードウェアコストの増大に伴う焦点深度の異なる複数の画像の収集問題を回避できる。
さらに,従来の手法のように複雑な活動レベルの計測や融合ルールを手作業で設計することなく,入力源画像から融合画像への直接マッピングを学習できるように設計されている。
関連論文リスト
- Fusion from Decomposition: A Self-Supervised Approach for Image Fusion and Beyond [74.96466744512992]
画像融合の本質は、ソース画像からの相補的な情報を統合することである。
DeFusion++は、画像融合の品質を高め、下流の高レベル視覚タスクの有効性を高める、汎用的な融合表現を生成する。
論文 参考訳(メタデータ) (2024-10-16T06:28:49Z) - FreeCompose: Generic Zero-Shot Image Composition with Diffusion Prior [50.0535198082903]
我々は,複数の入力イメージを単一のコヒーレントなイメージに統合する,新しい画像合成手法を提案する。
本稿では, 大規模事前学習拡散モデルに内在する強力な生成的前駆体を利用して, 汎用画像合成を実現する可能性を示す。
論文 参考訳(メタデータ) (2024-07-06T03:35:43Z) - Bridging the Gap between Multi-focus and Multi-modal: A Focused
Integration Framework for Multi-modal Image Fusion [5.417493475406649]
MMIF(Multi-Modal Image fusion)は、異なるモダリティ画像からの貴重な情報を融合画像に統合する。
本稿では,協調型統合とモダリティ情報抽出のためのMMIFフレームワークを提案する。
提案アルゴリズムは、視覚知覚と定量的評価において最先端の手法を超越することができる。
論文 参考訳(メタデータ) (2023-11-03T12:58:39Z) - Generation and Recombination for Multifocus Image Fusion with Free
Number of Inputs [17.32596568119519]
マルチフォーカス画像融合は光学レンズの限界を克服する有効な方法である。
従来の手法では、2つのソース画像の焦点領域は相補的であり、複数の画像の同時融合が不可能である。
GRFusionでは、各ソースイメージのフォーカス特性検出を独立して実装でき、複数のソースイメージを同時に統合することができる。
論文 参考訳(メタデータ) (2023-09-09T01:47:56Z) - A Task-guided, Implicitly-searched and Meta-initialized Deep Model for
Image Fusion [69.10255211811007]
本稿では,課題の多い現実シナリオにおいて,画像融合問題に対処するためのタスク誘導,インプリシト検索,メタ一般化(TIM)深層モデルを提案する。
具体的には、画像融合の教師なし学習プロセスを導くために、下流タスクからの情報を組み込む制約付き戦略を提案する。
このフレームワーク内に暗黙の探索スキームを設計し、高速な融合モデルのためのコンパクトなアーキテクチャを自動で発見する。
論文 参考訳(メタデータ) (2023-05-25T08:54:08Z) - CoCoNet: Coupled Contrastive Learning Network with Multi-level Feature
Ensemble for Multi-modality Image Fusion [72.8898811120795]
我々は、赤外線と可視画像の融合を実現するために、CoCoNetと呼ばれるコントラスト学習ネットワークを提案する。
本手法は,主観的評価と客観的評価の両面において,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T12:02:07Z) - Joint Learning of Deep Texture and High-Frequency Features for
Computer-Generated Image Detection [24.098604827919203]
本稿では,CG画像検出のための深いテクスチャと高周波特徴を有する共同学習戦略を提案する。
セマンティックセグメンテーションマップを生成して、アフィン変換操作を誘導する。
原画像と原画像の高周波成分の組み合わせを、注意機構を備えたマルチブランチニューラルネットワークに供給する。
論文 参考訳(メタデータ) (2022-09-07T17:30:40Z) - Deep Image Compositing [93.75358242750752]
ユーザ入力なしで高品質の画像合成を自動生成する手法を提案する。
ラプラシアン・ピラミッド・ブレンディングにインスパイアされ、フォアグラウンドや背景画像からの情報を効果的に融合させるために、密結合型多ストリーム融合ネットワークが提案されている。
実験により,提案手法は高品質な合成物を自動生成し,定性的かつ定量的に既存手法より優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-11-04T06:12:24Z) - End-to-End Learning for Simultaneously Generating Decision Map and
Multi-Focus Image Fusion Result [7.564462759345851]
多焦点画像融合の目的は、異なる画像の集中領域を集め、ユニークな全焦点融合画像を生成することである。
既存のディープラーニング構造のほとんどは、融合品質とエンドツーエンドの実装の利便性のバランスが取れなかった。
本稿では,決定マップと融合した結果をエンドツーエンドのトレーニング手順で同時に生成するカスケードネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-17T09:09:51Z) - MFIF-GAN: A New Generative Adversarial Network for Multi-Focus Image
Fusion [29.405149234582623]
マルチフォーカス画像融合(MFIF)は、オールインフォーカス画像を得るための有望な技術である。
MFIFの研究動向の1つは、フォーカス/デフォーカス境界(FDB)周辺のデフォーカス拡散効果(DSE)を回避することである。
我々は,MFIF-GANと呼ばれるネットワークを用いて,前景領域が対応する対象よりも正確に大きいフォーカスマップを生成する。
論文 参考訳(メタデータ) (2020-09-21T09:36:34Z) - Real-MFF: A Large Realistic Multi-focus Image Dataset with Ground Truth [58.226535803985804]
我々はReal-MFFと呼ばれる大規模で現実的なマルチフォーカスデータセットを導入する。
データセットは、710対のソースイメージと対応する接地真理画像を含む。
このデータセット上で10の典型的なマルチフォーカスアルゴリズムを図示のために評価する。
論文 参考訳(メタデータ) (2020-03-28T12:33:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。