論文の概要: AV-GAN: Attention-Based Varifocal Generative Adversarial Network for Uneven Medical Image Translation
- arxiv url: http://arxiv.org/abs/2404.10714v1
- Date: Tue, 16 Apr 2024 16:43:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-17 16:05:12.899258
- Title: AV-GAN: Attention-Based Varifocal Generative Adversarial Network for Uneven Medical Image Translation
- Title(参考訳): AV-GAN:不均一な医用画像翻訳のためのアテンションベース可変共役変換ネットワーク
- Authors: Zexin Li, Yiyang Lin, Zijie Fang, Shuyan Li, Xiu Li,
- Abstract要約: 我々は,翻訳難易度の高い領域に適応できるアテンションベースキー領域選択モジュールを開発した。
次に、これらの領域を複数の解像度で翻訳するVarifocal Moduleを開発する。
実験の結果,提案したAV-GANは既存の画像翻訳法よりも優れていた。
- 参考スコア(独自算出の注目度): 25.665817446819386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Different types of staining highlight different structures in organs, thereby assisting in diagnosis. However, due to the impossibility of repeated staining, we cannot obtain different types of stained slides of the same tissue area. Translating the slide that is easy to obtain (e.g., H&E) to slides of staining types difficult to obtain (e.g., MT, PAS) is a promising way to solve this problem. However, some regions are closely connected to other regions, and to maintain this connection, they often have complex structures and are difficult to translate, which may lead to wrong translations. In this paper, we propose the Attention-Based Varifocal Generative Adversarial Network (AV-GAN), which solves multiple problems in pathologic image translation tasks, such as uneven translation difficulty in different regions, mutual interference of multiple resolution information, and nuclear deformation. Specifically, we develop an Attention-Based Key Region Selection Module, which can attend to regions with higher translation difficulty. We then develop a Varifocal Module to translate these regions at multiple resolutions. Experimental results show that our proposed AV-GAN outperforms existing image translation methods with two virtual kidney tissue staining tasks and improves FID values by 15.9 and 4.16 respectively in the H&E-MT and H&E-PAS tasks.
- Abstract(参考訳): 異なる種類の染色は、臓器の異なる構造を強調し、診断を助ける。
しかし, 繰り返し染色が不可能なため, 同じ組織領域の染色スライスの種類が異なるわけにはいかない。
入手し易いスライド(例えば、H&E)を、入手し難い染色タイプのスライド(例えば、MT、PAS)に翻訳することは、この問題を解決するための有望な方法である。
しかし、いくつかの地域は他の地域と密接に結びついており、この関係を維持するために、しばしば複雑な構造を持ち、翻訳が困難であり、誤った翻訳につながる可能性がある。
本稿では,異なる領域における不均一な翻訳困難,複数解像度情報の相互干渉,核変形といった,病理画像翻訳タスクにおける複数の問題を解消するアテンションベースVarifocal Generative Adversarial Network (AV-GAN)を提案する。
具体的には,翻訳難易度の高い領域に適応できるアテンションベースキーリージョン選択モジュールを開発する。
次に、これらの領域を複数の解像度で翻訳するVarifocal Moduleを開発する。
AV-GANは2つの仮想腎臓組織染色タスクで既存の画像翻訳方法より優れており、H&E-MTタスクとH&E-PASタスクでそれぞれ15.9と4.16のFID値が改善されている。
関連論文リスト
- Scale-aware Super-resolution Network with Dual Affinity Learning for
Lesion Segmentation from Medical Images [50.76668288066681]
低解像度医用画像から様々な大きさの病変を適応的に分割する,スケールアウェアな超解像ネットワークを提案する。
提案するネットワークは,他の最先端手法と比較して一貫した改善を実現した。
論文 参考訳(メタデータ) (2023-05-30T14:25:55Z) - M$^{2}$SNet: Multi-scale in Multi-scale Subtraction Network for Medical
Image Segmentation [73.10707675345253]
医用画像から多様なセグメンテーションを仕上げるマルチスケールサブトラクションネットワーク(M$2$SNet)を提案する。
本手法は,4つの異なる医用画像セグメンテーションタスクの11つのデータセットに対して,異なる評価基準の下で,ほとんどの最先端手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2023-03-20T06:26:49Z) - AlignTransformer: Hierarchical Alignment of Visual Regions and Disease
Tags for Medical Report Generation [50.21065317817769]
本稿では,Align Hierarchical Attention (AHA)とMulti-Grained Transformer (MGT)モジュールを含むAlign Transformerフレームワークを提案する。
パブリックなIU-XrayとMIMIC-CXRデータセットの実験は、AlignTransformerが2つのデータセットの最先端メソッドと競合する結果が得られることを示している。
論文 参考訳(メタデータ) (2022-03-18T13:43:53Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - Improving Unsupervised Stain-To-Stain Translation using Self-Supervision
and Meta-Learning [4.32671477389424]
画像から画像への翻訳に基づく教師なし領域適応は、デジタル病理学において重要になっている。
非教師付きステンツーステイン翻訳による異なる組織染色の変動に対処する。
腎病理組織学におけるステンレス翻訳にCycleGANを用いた。
論文 参考訳(メタデータ) (2021-12-16T12:42:40Z) - TarGAN: Target-Aware Generative Adversarial Networks for Multi-modality
Medical Image Translation [4.333115837538408]
本稿では,TarGANと呼ばれる新たなターゲット認識型生成敵ネットワークを提案する。
TarGANは、ペア化されたデータに頼ることなく、マルチモーダルな医療画像翻訳を学ぶことができる。
定量的測定と定性評価の両方の実験により、TarGANはあらゆるケースにおいて最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-05-19T08:45:33Z) - Multi-Texture GAN: Exploring the Multi-Scale Texture Translation for
Brain MR Images [1.9163481966968943]
既存のアルゴリズムのかなりの割合は、ターゲットスキャナーからテクスチャの詳細を明示的に利用し保存することはできない。
本論文では,再構成イメージをより詳細に強調するために,マルチスケールテクスチャ転送の設計を行う。
本手法は,最先端手法において,プロトコール間あるいはスカンナ間翻訳において優れた結果が得られる。
論文 参考訳(メタデータ) (2021-02-14T19:14:06Z) - Towards Histopathological Stain Invariance by Unsupervised Domain
Augmentation using Generative Adversarial Networks [0.7340845393655052]
対比画像から画像への変換に基づく教師なし増分手法を提案する。
ネットワークを一般的な染色モダリティでトレーニングし、それに対応するが異なる染色組織構造を含む画像に適用することにより、提案手法は大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2020-12-22T23:32:17Z) - Rethinking conditional GAN training: An approach using geometrically
structured latent manifolds [58.07468272236356]
条件付きGAN(cGAN)は、生成された出力の多様性の欠如などの重大な欠点に悩まされる。
本稿では,バニラcGANの多様性と視覚的品質を両立させる新しいトレーニング機構を提案する。
論文 参考訳(メタデータ) (2020-11-25T22:54:11Z) - Cross-Domain Medical Image Translation by Shared Latent Gaussian Mixture
Model [10.05036157409819]
クロスドメイン画像解析ツールは、実世界の臨床応用において高い需要がある。
現在のディープラーニングベースのセグメンテーションモデルは、訓練データ不足のため、ドメイン間でのセグメンテーションが不十分であることが多い。
医用画像翻訳中に微細構造を保存するために,ガウス混合モデルから共用潜伏変数を用いたパッチベースモデルを提案する。
論文 参考訳(メタデータ) (2020-07-14T17:48:44Z) - What Can Be Transferred: Unsupervised Domain Adaptation for Endoscopic
Lesions Segmentation [51.7837386041158]
内視鏡的病変分割のための2つの相補的モジュールを含む新しい教師なしセマンティックトランスファーモデルを開発した。
特に、T_Dは、残留転写可能性を認識するボトルネックを介して、医療病変の伝達可能な視覚情報を翻訳する場所に焦点を当てている。
T_Fは、さまざまな病変のトランスファー可能なセマンティック機能を拡張し、自動的に非トランスファー可能な表現を無視する方法を強調している。
論文 参考訳(メタデータ) (2020-04-24T00:57:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。