論文の概要: HealthyGAN: Learning from Unannotated Medical Images to Detect Anomalies
Associated with Human Disease
- arxiv url: http://arxiv.org/abs/2209.01822v1
- Date: Mon, 5 Sep 2022 08:10:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 15:02:46.659919
- Title: HealthyGAN: Learning from Unannotated Medical Images to Detect Anomalies
Associated with Human Disease
- Title(参考訳): healthygan: 注釈のない医療画像から学ぶことで、ヒト疾患に関連する異常を検出する
- Authors: Md Mahfuzur Rahman Siddiquee, Jay Shah, Teresa Wu, Catherine Chong,
Todd Schwedt, and Baoxin Li
- Abstract要約: 現在の医療画像学における典型的な手法は、健康な被験者のみから診断モデルを導出することに集中している。
HealthyGANは、混合データセットから正常な画像のみに変換することを学習する。
1方向であるHealthyGANは、既存の未ペア画像から画像への変換方法のサイクル一貫性の要求を緩和する。
- 参考スコア(独自算出の注目度): 13.827062843105365
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Automated anomaly detection from medical images, such as MRIs and X-rays, can
significantly reduce human effort in disease diagnosis. Owing to the complexity
of modeling anomalies and the high cost of manual annotation by domain experts
(e.g., radiologists), a typical technique in the current medical imaging
literature has focused on deriving diagnostic models from healthy subjects
only, assuming the model will detect the images from patients as outliers.
However, in many real-world scenarios, unannotated datasets with a mix of both
healthy and diseased individuals are abundant. Therefore, this paper poses the
research question of how to improve unsupervised anomaly detection by utilizing
(1) an unannotated set of mixed images, in addition to (2) the set of healthy
images as being used in the literature. To answer the question, we propose
HealthyGAN, a novel one-directional image-to-image translation method, which
learns to translate the images from the mixed dataset to only healthy images.
Being one-directional, HealthyGAN relaxes the requirement of cycle consistency
of existing unpaired image-to-image translation methods, which is unattainable
with mixed unannotated data. Once the translation is learned, we generate a
difference map for any given image by subtracting its translated output.
Regions of significant responses in the difference map correspond to potential
anomalies (if any). Our HealthyGAN outperforms the conventional
state-of-the-art methods by significant margins on two publicly available
datasets: COVID-19 and NIH ChestX-ray14, and one institutional dataset
collected from Mayo Clinic. The implementation is publicly available at
https://github.com/mahfuzmohammad/HealthyGAN.
- Abstract(参考訳): MRIやX線などの医療画像からの自動異常検出は、疾患診断における人間の労力を大幅に削減する。
モデリングの複雑さと、ドメインの専門家(放射線技師など)による手動アノテーションのコストの高さから、現在の医療画像文献では、モデルが患者からの画像を異常値として検出することを前提として、健康な被験者からのみ診断モデルを導出することに焦点を当てている。
しかし、多くの現実世界のシナリオでは、健全な個人と病気の個人の両方が混在した注釈のないデータセットが豊富である。
そこで本稿では,(1)混合画像の無記名集合と(2)文献に使用される健全画像の集合を用いて,教師なし異常検出を改善する方法についての研究課題を提案する。
そこで本研究では,混合データセットから健常画像のみへの画像変換を学習する,一方向画像対画像変換法であるhealthganを提案する。
一方向であることから、HealthyGANは既存の未ペア画像から画像への翻訳手法のサイクル一貫性の要求を緩和する。
翻訳が学習されると、変換された出力を減算して任意の画像の差分マップを生成する。
差分マップにおける重要な応答領域は、(もしあれば)潜在的な異常に対応する。
私たちのHealthyGANは、新型コロナウイルス(COVID-19)とNIH ChestX-ray14(NIH ChestX-ray14)という2つの公開データセットと、メイヨークリニックから収集された1つの機関的データセットに対して、従来の最先端の手法よりも大幅に優れています。
実装はhttps://github.com/mahfuzmohammad/HealthyGANで公開されている。
関連論文リスト
- VALD-MD: Visual Attribution via Latent Diffusion for Medical Diagnostics [0.0]
医用画像における視覚的属性は、医用画像の診断関連成分を明確にすることを目指している。
本稿では、潜在拡散モデルとドメイン固有大言語モデルを組み合わせた新しい生成的視覚属性手法を提案する。
結果として生じるシステムは、ゼロショット局所化疾患誘導を含む様々な潜在能力を示す。
論文 参考訳(メタデータ) (2024-01-02T19:51:49Z) - GAN-GA: A Generative Model based on Genetic Algorithm for Medical Image
Generation [0.0]
生成モデルは、医療画像不足問題に対処するための有望な解決策を提供する。
本稿では遺伝的アルゴリズムを組み込んだ生成モデルであるGAN-GAを提案する。
提案モデルは特徴を保ちながら画像の忠実度と多様性を向上させる。
論文 参考訳(メタデータ) (2023-12-30T20:16:45Z) - A Two-Stage Generative Model with CycleGAN and Joint Diffusion for
MRI-based Brain Tumor Detection [41.454028276986946]
本稿では,脳腫瘍の検出とセグメンテーションを改善するための2段階生成モデル(TSGM)を提案する。
CycleGANは、未ペアデータに基づいてトレーニングされ、データとして正常な画像から異常な画像を生成する。
VE-JPは、合成対の異常画像をガイドとして使用して、健康な画像の再構成を行う。
論文 参考訳(メタデータ) (2023-11-06T12:58:26Z) - Metadata-enhanced contrastive learning from retinal optical coherence
tomography images [9.618704558885069]
従来のコントラストフレームワークを新しいメタデータ強化戦略で拡張する。
本手法では,画像間のコントラスト関係の真のセットを近似するために,患者メタデータを広く活用する。
提案手法は、6つの画像レベル下流タスクのうち5つにおいて、標準コントラスト法と網膜画像基盤モデルの両方に優れる。
論文 参考訳(メタデータ) (2022-08-04T08:53:15Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - AlignTransformer: Hierarchical Alignment of Visual Regions and Disease
Tags for Medical Report Generation [50.21065317817769]
本稿では,Align Hierarchical Attention (AHA)とMulti-Grained Transformer (MGT)モジュールを含むAlign Transformerフレームワークを提案する。
パブリックなIU-XrayとMIMIC-CXRデータセットの実験は、AlignTransformerが2つのデータセットの最先端メソッドと競合する結果が得られることを示している。
論文 参考訳(メタデータ) (2022-03-18T13:43:53Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Convolutional-LSTM for Multi-Image to Single Output Medical Prediction [55.41644538483948]
発展途上国の一般的なシナリオは、複数の理由からボリュームメタデータが失われることである。
ヒトの診断過程を模倣したマルチイメージから単一診断モデルを得ることが可能である。
論文 参考訳(メタデータ) (2020-10-20T04:30:09Z) - Auxiliary Signal-Guided Knowledge Encoder-Decoder for Medical Report
Generation [107.3538598876467]
放射線技師の動作パターンを模倣する補助信号誘導知識デコーダ(ASGK)を提案する。
ASGKは、内的特徴融合と外部医療言語情報を統合して、医療知識の伝達と学習をガイドする。
論文 参考訳(メタデータ) (2020-06-06T01:00:15Z) - A versatile anomaly detection method for medical images with a
flow-based generative model in semi-supervision setting [0.0]
本稿では,2つの訓練されたフローベース生成モデルに基づく異常検出手法を提案する。
この方法では、後続確率は任意の画像に対する正規度計量として計算できる。
胸部X線写真(CXR)と脳CT(BCT)の2種類の医用画像を用いて評価した。
論文 参考訳(メタデータ) (2020-01-22T02:01:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。