論文の概要: GSDA: Generative Adversarial Network-based Semi-Supervised Data
Augmentation for Ultrasound Image Classification
- arxiv url: http://arxiv.org/abs/2203.06184v4
- Date: Thu, 5 Oct 2023 09:04:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 23:33:39.847705
- Title: GSDA: Generative Adversarial Network-based Semi-Supervised Data
Augmentation for Ultrasound Image Classification
- Title(参考訳): GSDA:超音波画像分類のためのジェネレーティブ・ディバイサル・ネットワークに基づく半スーパービジョンデータ拡張
- Authors: Zhaoshan Liu, Qiujie Lv, Chau Hung Lee, Lei Shen
- Abstract要約: 医用超音波(英語: Medical Ultrasound、略称:US)は、臨床において最も広く用いられる画像のモダリティの一つである。
ディープラーニング(DL)モデルは、先進的な米国の画像分析ツールとして機能するが、大規模なデータセットの不足により、その性能は大幅に制限される。
我々はGANに基づく半教師付きデータ拡張法を開発した。
- 参考スコア(独自算出の注目度): 8.554511144730387
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical Ultrasound (US) is one of the most widely used imaging modalities in
clinical practice, but its usage presents unique challenges such as variable
imaging quality. Deep Learning (DL) models can serve as advanced medical US
image analysis tools, but their performance is greatly limited by the scarcity
of large datasets. To solve the common data shortage, we develop GSDA, a
Generative Adversarial Network (GAN)-based semi-supervised data augmentation
method. GSDA consists of the GAN and Convolutional Neural Network (CNN). The
GAN synthesizes and pseudo-labels high-resolution, high-quality US images, and
both real and synthesized images are then leveraged to train the CNN. To
address the training challenges of both GAN and CNN with limited data, we
employ transfer learning techniques during their training. We also introduce a
novel evaluation standard that balances classification accuracy with
computational time. We evaluate our method on the BUSI dataset and GSDA
outperforms existing state-of-the-art methods. With the high-resolution and
high-quality images synthesized, GSDA achieves a 97.9% accuracy using merely
780 images. Given these promising results, we believe that GSDA holds potential
as an auxiliary tool for medical US analysis.
- Abstract(参考訳): 医用超音波(us)は臨床でもっとも広く使われている画像診断法の一つであるが、その使用は画像品質の変化など独特の課題を呈する。
ディープラーニング(dl)モデルは、高度な医療用us画像分析ツールとして機能するが、大規模なデータセットの不足により、そのパフォーマンスは大幅に制限される。
この共通データ不足を解決するため,GANに基づく半教師付きデータ拡張手法であるGSDAを開発した。
GSDA は GAN と Convolutional Neural Network (CNN) で構成されている。
GANは高解像度で高画質のUSイメージを合成し、実画像と合成画像の両方を利用してCNNを訓練する。
限られたデータでganとcnnの両方のトレーニング課題に対処するために、トレーニング中に転送学習技術を採用する。
また,分類精度と計算時間とのバランスをとる新しい評価基準を導入する。
本手法をBUSIデータセット上で評価し,GSDAが既存の最先端手法より優れていることを示す。
GSDAは高解像度で高品質な画像を合成し、わずか780枚の画像を使用して97.9%の精度を達成している。
これらの有望な結果を踏まえると、GSDAは米国における医療分析の補助的ツールとして潜在的に有益であると考えられる。
関連論文リスト
- MedMNIST-C: Comprehensive benchmark and improved classifier robustness by simulating realistic image corruptions [0.13108652488669734]
神経ネットワークに基づくシステムの臨床実践への統合は、ドメインの一般化と堅牢性に関連する課題によって制限される。
我々は、12のデータセットと9つの画像モダリティをカバーするMedMNIST+コレクションに基づくベンチマークデータセットであるMedMNIST-Cを作成し、オープンソース化した。
論文 参考訳(メタデータ) (2024-06-25T13:20:39Z) - Synthetic Medical Imaging Generation with Generative Adversarial Networks For Plain Radiographs [34.98319691651471]
本研究の目的は、再利用可能なオープンソースの合成画像生成パイプラインであるGAN画像合成ツール(GIST)を開発することである。
このパイプラインは、特定の患者に関連付けられていない高品質な合成画像データを生成することによって、デジタルヘルス空間におけるAIアルゴリズムの改善と標準化を支援する。
論文 参考訳(メタデータ) (2024-03-28T02:51:33Z) - Additional Look into GAN-based Augmentation for Deep Learning COVID-19
Image Classification [57.1795052451257]
我々は,GANに基づく拡張性能のデータセットサイズ依存性について,小サンプルに着目して検討した。
両方のセットでStyleGAN2-ADAをトレーニングし、生成した画像の品質を検証した後、マルチクラス分類問題における拡張アプローチの1つとしてトレーニングされたGANを使用する。
GANベースの拡張アプローチは、中規模および大規模データセットでは古典的な拡張に匹敵するが、より小さなデータセットでは不十分である。
論文 参考訳(メタデータ) (2024-01-26T08:28:13Z) - GAN-GA: A Generative Model based on Genetic Algorithm for Medical Image
Generation [0.0]
生成モデルは、医療画像不足問題に対処するための有望な解決策を提供する。
本稿では遺伝的アルゴリズムを組み込んだ生成モデルであるGAN-GAを提案する。
提案モデルは特徴を保ちながら画像の忠実度と多様性を向上させる。
論文 参考訳(メタデータ) (2023-12-30T20:16:45Z) - Multi-Level Global Context Cross Consistency Model for Semi-Supervised
Ultrasound Image Segmentation with Diffusion Model [0.0]
本研究では,Latent Diffusion Model (LDM) によって生成された画像を,半教師付き学習のためのラベル付き画像として利用するフレームワークを提案する。
提案手法により,確率分布の知識をセグメント化ネットワークに効果的に伝達することが可能となり,セグメント化精度が向上する。
論文 参考訳(メタデータ) (2023-05-16T14:08:24Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - SAG-GAN: Semi-Supervised Attention-Guided GANs for Data Augmentation on
Medical Images [47.35184075381965]
本稿では,GAN(Cycle-Consistency Generative Adversarial Networks)を用いた医用画像生成のためのデータ拡張手法を提案する。
提案モデルでは,正常画像から腫瘍画像を生成することができ,腫瘍画像から正常画像を生成することもできる。
本研究では,従来のデータ拡張手法と合成画像を用いた分類モデルを用いて,実画像を用いた分類モデルを訓練する。
論文 参考訳(メタデータ) (2020-11-15T14:01:24Z) - Realistic Adversarial Data Augmentation for MR Image Segmentation [17.951034264146138]
医用画像セグメンテーションのためのニューラルネットワークのトレーニングのための逆データ拡張手法を提案する。
このモデルでは,MR画像における共通の種類のアーチファクトによって生じる強度不均一性,すなわちバイアス場をモデル化する。
このような手法により,モデルの一般化と堅牢性の向上が図られ,低データシナリオにおける大幅な改善が期待できる。
論文 参考訳(メタデータ) (2020-06-23T20:43:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。