論文の概要: HAGAN: Hybrid Augmented Generative Adversarial Network for Medical Image Synthesis
- arxiv url: http://arxiv.org/abs/2405.04902v1
- Date: Wed, 8 May 2024 09:13:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-09 14:54:31.167955
- Title: HAGAN: Hybrid Augmented Generative Adversarial Network for Medical Image Synthesis
- Title(参考訳): HAGAN: 医用画像合成のためのハイブリッドAugmented Generative Adversarial Network
- Authors: Zhihan Ju, Wanting Zhou, Longteng Kong, Yu Chen, Yi Li, Zhenan Sun, Caifeng Shan,
- Abstract要約: 組織と組織細胞の信頼性を維持するために,Hybrid Augmented Generative Adrial Network (HAGAN)を提案する。
HAGANには、アテンション混合(AttnMix)ジェネレータ、階層ディスクリミネータ、およびディスクリミネータとジェネレータ間のリバーススキップ接続が含まれている。
- 参考スコア(独自算出の注目度): 39.3485363570488
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical Image Synthesis (MIS) plays an important role in the intelligent medical field, which greatly saves the economic and time costs of medical diagnosis. However, due to the complexity of medical images and similar characteristics of different tissue cells, existing methods face great challenges in meeting their biological consistency. To this end, we propose the Hybrid Augmented Generative Adversarial Network (HAGAN) to maintain the authenticity of structural texture and tissue cells. HAGAN contains Attention Mixed (AttnMix) Generator, Hierarchical Discriminator and Reverse Skip Connection between Discriminator and Generator. The AttnMix consistency differentiable regularization encourages the perception in structural and textural variations between real and fake images, which improves the pathological integrity of synthetic images and the accuracy of features in local areas. The Hierarchical Discriminator introduces pixel-by-pixel discriminant feedback to generator for enhancing the saliency and discriminance of global and local details simultaneously. The Reverse Skip Connection further improves the accuracy for fine details by fusing real and synthetic distribution features. Our experimental evaluations on three datasets of different scales, i.e., COVID-CT, ACDC and BraTS2018, demonstrate that HAGAN outperforms the existing methods and achieves state-of-the-art performance in both high-resolution and low-resolution.
- Abstract(参考訳): 医用画像合成(MIS)は、医学診断の経済的・時間的コストを大幅に削減する知的医療分野において重要な役割を担っている。
しかし、医用画像の複雑さや組織細胞の類似した特徴により、既存の手法は生物学的に整合性を満たす上で大きな課題に直面している。
そこで本研究では,構造テクスチャと組織細胞の信頼性を維持するために,HAGAN(Hybrid Augmented Generative Adversarial Network)を提案する。
HAGANには、アテンション混合(AttnMix)ジェネレータ、階層ディスクリミネータ、およびディスクリミネータとジェネレータ間のリバーススキップ接続が含まれている。
AttnMixの一貫性の相違可能な正規化は、実画像と偽画像の間の構造的およびテクスチャ的変化の知覚を促進する。
Hierarchical Discriminatorは、グローバルおよびローカル詳細の正当性と識別性を同時に向上するジェネレータにピクセル・バイ・ピクセル識別フィードバックを導入している。
Reverse Skip Connectionは、実際の分布と合成分布の特徴を融合することにより、細部における精度をさらに向上する。
HAGANが既存の手法より優れ,高分解能と低分解能の両方で最先端の性能を達成することを実証した。
関連論文リスト
- EMIT-Diff: Enhancing Medical Image Segmentation via Text-Guided
Diffusion Model [4.057796755073023]
EMIT-Diffと呼ばれる医用画像合成のための制御可能な拡散モデルを開発した。
近年の拡散確率モデルを利用して、現実的で多様な合成医用画像データを生成する。
提案手法では, 合成試料が医療上の制約に適合することを確実にする。
論文 参考訳(メタデータ) (2023-10-19T16:18:02Z) - Adaptive Input-image Normalization for Solving the Mode Collapse Problem in GAN-based X-ray Images [0.08192907805418582]
この研究は、適応入力-画像正規化をDeep Conversaal GANとAuxiliary GANと統合してモード崩壊問題を緩和する利点の実証的な実証に寄与する。
その結果, 適応入出力正規化によるDCGANとACGANは, 非正規化X線画像でDCGANとACGANより優れていた。
論文 参考訳(メタデータ) (2023-09-21T16:43:29Z) - Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - A Self-attention Guided Multi-scale Gradient GAN for Diversified X-ray
Image Synthesis [0.6308539010172307]
GAN(Generative Adversarial Networks)を用いて,合成画像の生成によるデータ制限問題に対処する。
モード崩壊、非収束、不安定といったトレーニング課題は、多彩で高品質な画像の合成において、GANのパフォーマンスを低下させる。
本研究では,バイオメディカル画像の特徴の長距離依存性の関係をモデル化する,注意誘導型マルチスケール勾配GANアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-10-09T13:17:17Z) - Evaluating the Quality and Diversity of DCGAN-based Generatively
Synthesized Diabetic Retinopathy Imagery [0.07499722271664144]
公的に利用可能な糖尿病網膜症(DR)データセットは不均衡であり、DRを持つ画像の数が限られている。
この不均衡に対処するには、GAN(Geneversarative Adrial Networks)を使用して、データセットを合成画像で拡張する。
合成画像の品質と多様性を評価するために、マルチスケール構造類似度指数(MS-SSIM)、コサイン距離(CD)、Fr't Inception Distance(FID)などの評価指標を用いる。
論文 参考訳(メタデータ) (2022-08-10T23:50:01Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Texture Characterization of Histopathologic Images Using Ecological
Diversity Measures and Discrete Wavelet Transform [82.53597363161228]
本稿では,病理組織像間でテクスチャを特徴付ける手法を提案する。
2つのHIデータセットに有望な精度で、そのような画像の固有特性を定量化することが可能である。
論文 参考訳(メタデータ) (2022-02-27T02:19:09Z) - MRI to PET Cross-Modality Translation using Globally and Locally Aware
GAN (GLA-GAN) for Multi-Modal Diagnosis of Alzheimer's Disease [1.7499351967216341]
現実像を合成できるGAN(Generative Adversarial Network)は、標準的なデータ拡張手法の代替として大きな可能性を秘めている。
本稿では,グローバルな構造的整合性と局所的細部への忠実さを両立させるマルチパスアーキテクチャにより,グローバルかつ局所的に認識された画像間変換GAN(GLA-GAN)を提案する。
論文 参考訳(メタデータ) (2021-08-04T16:38:33Z) - Diffusion-Weighted Magnetic Resonance Brain Images Generation with
Generative Adversarial Networks and Variational Autoencoders: A Comparison
Study [55.78588835407174]
本研究では,高画質,多彩で現実的な拡散重み付き磁気共鳴画像が深部生成モデルを用いて合成可能であることを示す。
Introspective Variational AutoencoderとStyle-Based GANの2つのネットワークを医療分野におけるデータ拡張の資格として提示する。
論文 参考訳(メタデータ) (2020-06-24T18:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。