論文の概要: RadImageGAN -- A Multi-modal Dataset-Scale Generative AI for Medical
Imaging
- arxiv url: http://arxiv.org/abs/2312.05953v1
- Date: Sun, 10 Dec 2023 17:47:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 17:51:19.479894
- Title: RadImageGAN -- A Multi-modal Dataset-Scale Generative AI for Medical
Imaging
- Title(参考訳): RadImageGAN - 医療画像のためのマルチモーダルデータセットスケール生成AI
- Authors: Zelong Liu, Alexander Zhou, Arnold Yang, Alara Yilmaz, Maxwell Yoo,
Mikey Sullivan, Catherine Zhang, James Grant, Daiqing Li, Zahi A. Fayad, Sean
Huver, Timothy Deyer, Xueyan Mei
- Abstract要約: RadImageGANは、最初のマルチモーダルラジオグラフィーデータジェネレータである。
12の解剖学的領域と130の病理組織を3つのモードで高精細な合成医療画像データセットを生成することができる。
そこで,RadImageGANから自動ラベル付きデータを合成することにより,下流の4つのセグメント化データセットの性能を大幅に向上させることができることを示す。
- 参考スコア(独自算出の注目度): 34.64464248101526
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning in medical imaging often requires large-scale, high-quality
data or initiation with suitably pre-trained weights. However, medical datasets
are limited by data availability, domain-specific knowledge, and privacy
concerns, and the creation of large and diverse radiologic databases like
RadImageNet is highly resource-intensive. To address these limitations, we
introduce RadImageGAN, the first multi-modal radiologic data generator, which
was developed by training StyleGAN-XL on the real RadImageNet dataset of
102,774 patients. RadImageGAN can generate high-resolution synthetic medical
imaging datasets across 12 anatomical regions and 130 pathological classes in 3
modalities. Furthermore, we demonstrate that RadImageGAN generators can be
utilized with BigDatasetGAN to generate multi-class pixel-wise annotated paired
synthetic images and masks for diverse downstream segmentation tasks with
minimal manual annotation. We showed that using synthetic auto-labeled data
from RadImageGAN can significantly improve performance on four diverse
downstream segmentation datasets by augmenting real training data and/or
developing pre-trained weights for fine-tuning. This shows that RadImageGAN
combined with BigDatasetGAN can improve model performance and address data
scarcity while reducing the resources needed for annotations for segmentation
tasks.
- Abstract(参考訳): 医用画像の深層学習は、しばしば大規模で高品質なデータを必要とする。
しかしながら、医療データセットはデータアベイラビリティ、ドメイン固有の知識、プライバシの懸念によって制限されており、radimagenetのような大規模で多様な放射線データベースの作成は非常にリソース集約的である。
これらの制約に対処するため、我々は102,774人の実際のRadImageNetデータセット上でStyleGAN-XLをトレーニングすることで開発された最初のマルチモーダルラジオグラフィーデータジェネレータであるRadImageGANを紹介した。
RadImageGANは、12の解剖学的領域と130の病理組織を3つのモードで高解像度の医用画像データセットを生成することができる。
さらに,radimagegan ジェネレータを bigdatasetgan と併用することで,手作業によるアノテーションの少ない下流セグメンテーションタスクのためのマルチクラスピクセルアノテートされた合成画像とマスクを生成できることを実証した。
本研究では,radimageganの合成自動ラベルデータを用いることで,実トレーニングデータの拡張や微調整のための事前学習重み付けの開発により,4種類の下流セグメンテーションデータセットの性能を大幅に向上できることを示した。
これは、RadImageGANとBigDatasetGANを組み合わせることで、セグメンテーションタスクのアノテーションに必要なリソースを削減しつつ、モデルパフォーマンスを改善し、データの不足に対処できることを示している。
関連論文リスト
- Large-Scale Data-Free Knowledge Distillation for ImageNet via Multi-Resolution Data Generation [53.95204595640208]
Data-Free Knowledge Distillation (DFKD)は、教師モデルから生徒モデルへの知識伝達を可能にする高度な技術である。
従来のアプローチでは、実際の画像の情報を活用することなく、高解像度で合成画像を生成してきた。
MUSEは、クラスアクティベーションマップ(CAM)を使用して、低い解像度で画像を生成し、生成された画像が重要なクラス固有の特徴を保持することを保証する。
論文 参考訳(メタデータ) (2024-11-26T02:23:31Z) - Discriminative Hamiltonian Variational Autoencoder for Accurate Tumor Segmentation in Data-Scarce Regimes [2.8498944632323755]
医用画像分割のためのエンドツーエンドハイブリッドアーキテクチャを提案する。
ハミルトン変分オートエンコーダ(HVAE)と識別正則化を用いて生成画像の品質を向上する。
我々のアーキテクチャはスライス・バイ・スライス・ベースで3Dボリュームを分割し、リッチな拡張データセットをカプセル化する。
論文 参考訳(メタデータ) (2024-06-17T15:42:08Z) - Additional Look into GAN-based Augmentation for Deep Learning COVID-19
Image Classification [57.1795052451257]
我々は,GANに基づく拡張性能のデータセットサイズ依存性について,小サンプルに着目して検討した。
両方のセットでStyleGAN2-ADAをトレーニングし、生成した画像の品質を検証した後、マルチクラス分類問題における拡張アプローチの1つとしてトレーニングされたGANを使用する。
GANベースの拡張アプローチは、中規模および大規模データセットでは古典的な拡張に匹敵するが、より小さなデータセットでは不十分である。
論文 参考訳(メタデータ) (2024-01-26T08:28:13Z) - Histopathology DatasetGAN: Synthesizing Large-Resolution Histopathology
Datasets [0.0]
病理組織学的データセットGAN(HDGAN)は、画像の生成と分割のためのフレームワークであり、大きな解像度の病理組織像によく対応している。
生成したバックボーンの更新,ジェネレータからの遅延特徴の選択的抽出,メモリマップされた配列への切り替えなど,オリジナルのフレームワークからいくつかの適応を行う。
血栓性微小血管症における高分解能タイルデータセット上でHDGANを評価し,高分解能画像アノテーション生成タスクにおいて高い性能を示した。
論文 参考訳(メタデータ) (2022-07-06T14:33:50Z) - Enhancing MR Image Segmentation with Realistic Adversarial Data
Augmentation [17.539828821476224]
本稿では,学習データの利用効率を向上させるために,逆データ拡張手法を提案する。
本稿では,データ拡張モデルとセグメンテーションネットワークを協調的に最適化する汎用的なタスク駆動学習フレームワークを提案する。
提案した逆データ拡張は生成ネットワークに依存しず,汎用セグメンテーションネットワークのプラグインモジュールとして使用できる。
論文 参考訳(メタデータ) (2021-08-07T11:32:37Z) - Ensembles of GANs for synthetic training data generation [7.835101177261939]
トレーニングデータ不足は、ほとんどのディープラーニングプラクティスにとって大きなボトルネックです。
本研究は,gans(generative adversarial networks)が生成した合成画像のトレーニングデータとしての利用について検討する。
論文 参考訳(メタデータ) (2021-04-23T19:38:48Z) - DatasetGAN: Efficient Labeled Data Factory with Minimal Human Effort [117.41383937100751]
現在のディープネットワークは、大規模なデータセットのトレーニングの恩恵を受ける、非常にデータハングリーです。
GAN潜入コードがどのようにデコードされ、イメージのセマンティックセグメンテーションを生成するかを示す。
これらの生成されたデータセットは、実際のデータセットと同じように、コンピュータビジョンアーキテクチャのトレーニングに使用できます。
論文 参考訳(メタデータ) (2021-04-13T20:08:29Z) - SAG-GAN: Semi-Supervised Attention-Guided GANs for Data Augmentation on
Medical Images [47.35184075381965]
本稿では,GAN(Cycle-Consistency Generative Adversarial Networks)を用いた医用画像生成のためのデータ拡張手法を提案する。
提案モデルでは,正常画像から腫瘍画像を生成することができ,腫瘍画像から正常画像を生成することもできる。
本研究では,従来のデータ拡張手法と合成画像を用いた分類モデルを用いて,実画像を用いた分類モデルを訓練する。
論文 参考訳(メタデータ) (2020-11-15T14:01:24Z) - Realistic Adversarial Data Augmentation for MR Image Segmentation [17.951034264146138]
医用画像セグメンテーションのためのニューラルネットワークのトレーニングのための逆データ拡張手法を提案する。
このモデルでは,MR画像における共通の種類のアーチファクトによって生じる強度不均一性,すなわちバイアス場をモデル化する。
このような手法により,モデルの一般化と堅牢性の向上が図られ,低データシナリオにおける大幅な改善が期待できる。
論文 参考訳(メタデータ) (2020-06-23T20:43:18Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。