論文の概要: HAGAN: Hybrid Augmented Generative Adversarial Network for Medical Image Synthesis
- arxiv url: http://arxiv.org/abs/2405.04902v1
- Date: Wed, 8 May 2024 09:13:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-09 14:54:31.167955
- Title: HAGAN: Hybrid Augmented Generative Adversarial Network for Medical Image Synthesis
- Title(参考訳): HAGAN: 医用画像合成のためのハイブリッドAugmented Generative Adversarial Network
- Authors: Zhihan Ju, Wanting Zhou, Longteng Kong, Yu Chen, Yi Li, Zhenan Sun, Caifeng Shan,
- Abstract要約: 組織と組織細胞の信頼性を維持するために,Hybrid Augmented Generative Adrial Network (HAGAN)を提案する。
HAGANには、アテンション混合(AttnMix)ジェネレータ、階層ディスクリミネータ、およびディスクリミネータとジェネレータ間のリバーススキップ接続が含まれている。
- 参考スコア(独自算出の注目度): 39.3485363570488
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical Image Synthesis (MIS) plays an important role in the intelligent medical field, which greatly saves the economic and time costs of medical diagnosis. However, due to the complexity of medical images and similar characteristics of different tissue cells, existing methods face great challenges in meeting their biological consistency. To this end, we propose the Hybrid Augmented Generative Adversarial Network (HAGAN) to maintain the authenticity of structural texture and tissue cells. HAGAN contains Attention Mixed (AttnMix) Generator, Hierarchical Discriminator and Reverse Skip Connection between Discriminator and Generator. The AttnMix consistency differentiable regularization encourages the perception in structural and textural variations between real and fake images, which improves the pathological integrity of synthetic images and the accuracy of features in local areas. The Hierarchical Discriminator introduces pixel-by-pixel discriminant feedback to generator for enhancing the saliency and discriminance of global and local details simultaneously. The Reverse Skip Connection further improves the accuracy for fine details by fusing real and synthetic distribution features. Our experimental evaluations on three datasets of different scales, i.e., COVID-CT, ACDC and BraTS2018, demonstrate that HAGAN outperforms the existing methods and achieves state-of-the-art performance in both high-resolution and low-resolution.
- Abstract(参考訳): 医用画像合成(MIS)は、医学診断の経済的・時間的コストを大幅に削減する知的医療分野において重要な役割を担っている。
しかし、医用画像の複雑さや組織細胞の類似した特徴により、既存の手法は生物学的に整合性を満たす上で大きな課題に直面している。
そこで本研究では,構造テクスチャと組織細胞の信頼性を維持するために,HAGAN(Hybrid Augmented Generative Adversarial Network)を提案する。
HAGANには、アテンション混合(AttnMix)ジェネレータ、階層ディスクリミネータ、およびディスクリミネータとジェネレータ間のリバーススキップ接続が含まれている。
AttnMixの一貫性の相違可能な正規化は、実画像と偽画像の間の構造的およびテクスチャ的変化の知覚を促進する。
Hierarchical Discriminatorは、グローバルおよびローカル詳細の正当性と識別性を同時に向上するジェネレータにピクセル・バイ・ピクセル識別フィードバックを導入している。
Reverse Skip Connectionは、実際の分布と合成分布の特徴を融合することにより、細部における精度をさらに向上する。
HAGANが既存の手法より優れ,高分解能と低分解能の両方で最先端の性能を達成することを実証した。
関連論文リスト
- Unsupervised Feature Orthogonalization for Learning Distortion-Invariant Representations [0.13108652488669734]
本研究では、教師なし特徴の直交化と視覚変換器の能力を統合する新しい手法であるunORANIC+を紹介する。
unORANIC+の合理化アーキテクチャは、解剖学的および画像特異的な属性を効果的に分離し、堅牢で偏りのない潜在表現をもたらす。
大規模な実験は、UnORANIC+の復元能力、腐敗の回復力、および既存の画像歪みを修正する能力を示す。
本手法を先進的な医用画像解析のための有望なアルゴリズムとして位置づけた,多様な画像ソースとサンプルサイズのデータセットへの適応性を確認した。
論文 参考訳(メタデータ) (2024-09-18T19:25:38Z) - Deformation-aware GAN for Medical Image Synthesis with Substantially Misaligned Pairs [0.0]
本稿では,逆整合性に基づく画像合成における誤りを動的に補正する新しい変形認識型GAN(DA-GAN)を提案する。
実験の結果, DA-GANは, 呼吸運動異常を伴う実世界の肺MRI-CTデータセットと模擬誤診を伴う公共データセットにおいて, 優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-18T10:29:35Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - A Self-attention Guided Multi-scale Gradient GAN for Diversified X-ray
Image Synthesis [0.6308539010172307]
GAN(Generative Adversarial Networks)を用いて,合成画像の生成によるデータ制限問題に対処する。
モード崩壊、非収束、不安定といったトレーニング課題は、多彩で高品質な画像の合成において、GANのパフォーマンスを低下させる。
本研究では,バイオメディカル画像の特徴の長距離依存性の関係をモデル化する,注意誘導型マルチスケール勾配GANアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-10-09T13:17:17Z) - Evaluating the Quality and Diversity of DCGAN-based Generatively
Synthesized Diabetic Retinopathy Imagery [0.07499722271664144]
公的に利用可能な糖尿病網膜症(DR)データセットは不均衡であり、DRを持つ画像の数が限られている。
この不均衡に対処するには、GAN(Geneversarative Adrial Networks)を使用して、データセットを合成画像で拡張する。
合成画像の品質と多様性を評価するために、マルチスケール構造類似度指数(MS-SSIM)、コサイン距離(CD)、Fr't Inception Distance(FID)などの評価指標を用いる。
論文 参考訳(メタデータ) (2022-08-10T23:50:01Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Texture Characterization of Histopathologic Images Using Ecological
Diversity Measures and Discrete Wavelet Transform [82.53597363161228]
本稿では,病理組織像間でテクスチャを特徴付ける手法を提案する。
2つのHIデータセットに有望な精度で、そのような画像の固有特性を定量化することが可能である。
論文 参考訳(メタデータ) (2022-02-27T02:19:09Z) - MRI to PET Cross-Modality Translation using Globally and Locally Aware
GAN (GLA-GAN) for Multi-Modal Diagnosis of Alzheimer's Disease [1.7499351967216341]
現実像を合成できるGAN(Generative Adversarial Network)は、標準的なデータ拡張手法の代替として大きな可能性を秘めている。
本稿では,グローバルな構造的整合性と局所的細部への忠実さを両立させるマルチパスアーキテクチャにより,グローバルかつ局所的に認識された画像間変換GAN(GLA-GAN)を提案する。
論文 参考訳(メタデータ) (2021-08-04T16:38:33Z) - Diffusion-Weighted Magnetic Resonance Brain Images Generation with
Generative Adversarial Networks and Variational Autoencoders: A Comparison
Study [55.78588835407174]
本研究では,高画質,多彩で現実的な拡散重み付き磁気共鳴画像が深部生成モデルを用いて合成可能であることを示す。
Introspective Variational AutoencoderとStyle-Based GANの2つのネットワークを医療分野におけるデータ拡張の資格として提示する。
論文 参考訳(メタデータ) (2020-06-24T18:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。