論文の概要: TarGAN: Target-Aware Generative Adversarial Networks for Multi-modality
Medical Image Translation
- arxiv url: http://arxiv.org/abs/2105.08993v1
- Date: Wed, 19 May 2021 08:45:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 13:41:10.044463
- Title: TarGAN: Target-Aware Generative Adversarial Networks for Multi-modality
Medical Image Translation
- Title(参考訳): TarGAN:マルチモーダル医用画像翻訳のためのターゲット対応汎用ネットワーク
- Authors: Junxiao Chen, Jia Wei, and Rui Li
- Abstract要約: 本稿では,TarGANと呼ばれる新たなターゲット認識型生成敵ネットワークを提案する。
TarGANは、ペア化されたデータに頼ることなく、マルチモーダルな医療画像翻訳を学ぶことができる。
定量的測定と定性評価の両方の実験により、TarGANはあらゆるケースにおいて最先端の手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 4.333115837538408
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Paired multi-modality medical images, can provide complementary information
to help physicians make more reasonable decisions than single modality medical
images. But they are difficult to generate due to multiple factors in practice
(e.g., time, cost, radiation dose). To address these problems, multi-modality
medical image translation has aroused increasing research interest recently.
However, the existing works mainly focus on translation effect of a whole image
instead of a critical target area or Region of Interest (ROI), e.g., organ and
so on. This leads to poor-quality translation of the localized target area
which becomes blurry, deformed or even with extra unreasonable textures. In
this paper, we propose a novel target-aware generative adversarial network
called TarGAN, which is a generic multi-modality medical image translation
model capable of (1) learning multi-modality medical image translation without
relying on paired data, (2) enhancing quality of target area generation with
the help of target area labels. The generator of TarGAN jointly learns mapping
at two levels simultaneously - whole image translation mapping and target area
translation mapping. These two mappings are interrelated through a proposed
crossing loss. The experiments on both quantitative measures and qualitative
evaluations demonstrate that TarGAN outperforms the state-of-the-art methods in
all cases. Subsequent segmentation task is conducted to demonstrate
effectiveness of synthetic images generated by TarGAN in a real-world
application. Our code is available at https://github.com/2165998/TarGAN.
- Abstract(参考訳): 多重モダリティの医療画像は、医師が単一モダリティの医療画像よりも合理的な決定を下すのに役立つ補完的な情報を提供する。
しかし、それらは様々な要因(例えば、時間、コスト、放射線量)によって生成することが困難である。
これらの問題に対処するため、近年、マルチモーダルな医療画像翻訳が研究の関心を高めている。
しかし、既存の研究は主に、重要な対象領域や関心領域(ROI)、例えば臓器などではなく、全体像の翻訳効果に焦点を当てている。
これにより、局所化された対象領域の低品質な翻訳が、ぼやけたり、変形したり、あるいは余分な不合理なテクスチャになってしまう。
本稿では,2つのデータに頼らずに,(1)マルチモーダルな医用画像翻訳を学習できる汎用的マルチモーダル医療用画像翻訳モデルであるTarGANを提案する。
TarGANのジェネレータは、画像変換マッピングとターゲット領域変換マッピングの2つのレベルを同時に学習する。
これら2つの写像は交差損失によって相互に関連付けられる。
定量的測定と定性的評価の両方に関する実験は、TarGANがあらゆるケースにおいて最先端の手法よりも優れていることを示した。
その後のセグメンテーションタスクにより,TarGANが生成した合成画像の有効性を実世界のアプリケーションで実証する。
我々のコードはhttps://github.com/2165998/TarGAN.comで入手できる。
関連論文リスト
- AV-GAN: Attention-Based Varifocal Generative Adversarial Network for Uneven Medical Image Translation [25.665817446819386]
我々は,翻訳難易度の高い領域に適応できるアテンションベースキー領域選択モジュールを開発した。
次に、これらの領域を複数の解像度で翻訳するVarifocal Moduleを開発する。
実験の結果,提案したAV-GANは既存の画像翻訳法よりも優れていた。
論文 参考訳(メタデータ) (2024-04-16T16:43:36Z) - Cascaded Multi-path Shortcut Diffusion Model for Medical Image Translation [26.67518950976257]
高品質な医用画像翻訳と不確実性推定のためのカスケードマルチパスショートカット拡散モデル(CMDM)を提案する。
実験の結果,CMDMは最先端の手法に匹敵する高品質な翻訳を実現できることがわかった。
論文 参考訳(メタデータ) (2024-04-06T03:02:47Z) - C^2M-DoT: Cross-modal consistent multi-view medical report generation
with domain transfer network [67.97926983664676]
ドメイン転送ネットワーク(C2M-DoT)を用いたクロスモーダルなマルチビュー医療レポート生成を提案する。
C2M-DoTは、すべてのメトリクスで最先端のベースラインを大幅に上回る。
論文 参考訳(メタデータ) (2023-10-09T02:31:36Z) - Multi-Level Global Context Cross Consistency Model for Semi-Supervised
Ultrasound Image Segmentation with Diffusion Model [0.0]
本研究では,Latent Diffusion Model (LDM) によって生成された画像を,半教師付き学習のためのラベル付き画像として利用するフレームワークを提案する。
提案手法により,確率分布の知識をセグメント化ネットワークに効果的に伝達することが可能となり,セグメント化精度が向上する。
論文 参考訳(メタデータ) (2023-05-16T14:08:24Z) - Guided Image-to-Image Translation by Discriminator-Generator
Communication [71.86347329356244]
Image-to-image (I2I) 翻訳の目標は、ソースドメインからターゲットドメインに画像を転送することである。
本研究の主な分野は,GAN(Generative Adversarial Network)に基づくI2I翻訳の定式化である。
論文 参考訳(メタデータ) (2023-03-07T02:29:36Z) - AlignTransformer: Hierarchical Alignment of Visual Regions and Disease
Tags for Medical Report Generation [50.21065317817769]
本稿では,Align Hierarchical Attention (AHA)とMulti-Grained Transformer (MGT)モジュールを含むAlign Transformerフレームワークを提案する。
パブリックなIU-XrayとMIMIC-CXRデータセットの実験は、AlignTransformerが2つのデータセットの最先端メソッドと競合する結果が得られることを示している。
論文 参考訳(メタデータ) (2022-03-18T13:43:53Z) - Unsupervised Image-to-Image Translation via Pre-trained StyleGAN2
Network [73.5062435623908]
本稿では,一連のモデル変換によって対象領域に新たなモデルを生成する新しいI2I翻訳手法を提案する。
潜在ベクトルを生成されたモデルに入力することで、ソースドメインとターゲットドメインの間でI2I翻訳を行うことができる。
論文 参考訳(メタデータ) (2020-10-12T13:51:40Z) - Discriminative Cross-Modal Data Augmentation for Medical Imaging
Applications [24.06277026586584]
深層学習法は医用画像解析において大きな成功を収めており、訓練には多くの医用画像が必要である。
データプライバシの懸念と医療アノテータの有効性のため、モデルトレーニングのためにラベル付き医療画像を得るのは非常に困難であることが多い。
本稿では,画像のソースモダリティを目標モダリティに変換する画像対画像変換モデルを提案する。
論文 参考訳(メタデータ) (2020-10-07T15:07:00Z) - MI^2GAN: Generative Adversarial Network for Medical Image Domain
Adaptation using Mutual Information Constraint [47.07869311690419]
本稿では,ドメイン間I2I翻訳中に画像コンテンツを保持する新しいGANを提案する。
特に、ソース画像と翻訳画像の両方のドメイン情報からコンテンツ特徴を分離する。
提案したMI$2$GANは,大腸内視鏡画像を用いたポリープセグメンテーションと,眼底画像における光ディスクとカップのセグメンテーションの2つの課題について評価した。
論文 参考訳(メタデータ) (2020-07-22T03:19:54Z) - Auxiliary Signal-Guided Knowledge Encoder-Decoder for Medical Report
Generation [107.3538598876467]
放射線技師の動作パターンを模倣する補助信号誘導知識デコーダ(ASGK)を提案する。
ASGKは、内的特徴融合と外部医療言語情報を統合して、医療知識の伝達と学習をガイドする。
論文 参考訳(メタデータ) (2020-06-06T01:00:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。