論文の概要: GSDA: A Generative Adversarial Network-based Semi-Supervised Data
Augmentation Method
- arxiv url: http://arxiv.org/abs/2203.06184v3
- Date: Sat, 25 Mar 2023 12:22:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 03:40:14.082709
- Title: GSDA: A Generative Adversarial Network-based Semi-Supervised Data
Augmentation Method
- Title(参考訳): gsda: 生成型adversarial networkに基づく半教師付きデータ拡張法
- Authors: Zhaoshan Liu, Qiujie Lv, Chau Hung Lee, Lei Shen
- Abstract要約: 医用超音波(英語: Medical Ultrasound、略称:US)は、臨床において最も広く用いられる画像のモダリティの一つである。
ディープラーニング(DL)モデルは、先進的な米国の画像分析ツールとして使用することができ、大きなデータセットの不足により、そのパフォーマンスが大幅に制限される。
本稿では,GANに基づく半教師付きデータ拡張手法GSDAを提案する。
- 参考スコア(独自算出の注目度): 8.528953573904168
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical Ultrasound (US) is one of the most widely used imaging modalities in
clinical practice. However, its use presents unique challenges such as variable
imaging quality. The deep learning (DL) model can be used as an advanced
medical US image analysis tool, while the scarcity of big datasets greatly
limits its performance. To solve the common data shortage, we develop a
Generative Adversarial Network (GAN)-based semi-supervised data augmentation
method GSDA. The GSDA is composed of the GAN and Convolutional Neural Network
(CNN), in which GAN synthesizes and pseudo-labeled the US images with high
resolution and high quality, and both real and synthesized images are employed
to train CNN. To overcome the training difficulty for GAN and CNN under the
small data regime, we employ the transfer learning technique for both of them.
We also propose a novel evaluation standard to balance the classification
accuracy and the time consumption. We evaluate our method on the BUSI dataset
and GSDA outperforms existing state-of-the-art methods. With high-resolution
and high-quality images synthesized, GSDA obtain a 97.9% accuracy using merely
780 images. With the promising results, we believe GSDA can be regarded as a
potential auxiliary tool for medical US analysis.
- Abstract(参考訳): 医用超音波(英語版)(us)は、臨床でもっとも広く使われているイメージングモードの1つである。
しかし、その使用は可変撮像品質などのユニークな課題を呈する。
ディープラーニング(dl)モデルは、高度な医療用us画像分析ツールとして使用できるが、ビッグデータセットの不足は、そのパフォーマンスを大幅に制限している。
そこで我々は,GANに基づく半教師付きデータ拡張手法GSDAを開発した。
GSDA は GAN と Convolutional Neural Network (CNN) から構成されており、GAN は高解像度で高画質で米国イメージを合成し、擬似ラベル付けし、実画像と合成画像の両方を CNN の訓練に使用する。
小さいデータ体制下でのGANとCNNの訓練難を克服するため,両者にトランスファー学習技術を適用した。
また,分類精度と時間消費のバランスをとるための新しい評価基準を提案する。
本手法をBUSIデータセット上で評価し,GSDAが既存の最先端手法より優れていることを示す。
高解像度で高品質な画像が合成され、GSDAは780枚の画像を使って97.9%の精度を得る。
その結果,GSDAは医療用US分析の補助ツールとして期待できると考えられた。
関連論文リスト
- Medical Imaging Complexity and its Effects on GAN Performance [1.776717121506676]
医用医用画像合成は, 画像合成のための強力な手法として, GAN (Generative Adversarial Network) による医用画像合成が登場した。
サンプルデータセットサイズと生成された画像の忠実度との関係を計測するベンチマークを実験的に確立する。
サンプルサイズが変化する複数の医用画像データセットをトレーニングした,最先端の2つのGANであるStyleGAN 3とSPADE-GANを用いて実験を行った。
論文 参考訳(メタデータ) (2024-10-23T15:28:25Z) - MedMNIST-C: Comprehensive benchmark and improved classifier robustness by simulating realistic image corruptions [0.13108652488669734]
神経ネットワークに基づくシステムの臨床実践への統合は、ドメインの一般化と堅牢性に関連する課題によって制限される。
我々は、12のデータセットと9つの画像モダリティをカバーするMedMNIST+コレクションに基づくベンチマークデータセットであるMedMNIST-Cを作成し、オープンソース化した。
論文 参考訳(メタデータ) (2024-06-25T13:20:39Z) - Additional Look into GAN-based Augmentation for Deep Learning COVID-19
Image Classification [57.1795052451257]
我々は,GANに基づく拡張性能のデータセットサイズ依存性について,小サンプルに着目して検討した。
両方のセットでStyleGAN2-ADAをトレーニングし、生成した画像の品質を検証した後、マルチクラス分類問題における拡張アプローチの1つとしてトレーニングされたGANを使用する。
GANベースの拡張アプローチは、中規模および大規模データセットでは古典的な拡張に匹敵するが、より小さなデータセットでは不十分である。
論文 参考訳(メタデータ) (2024-01-26T08:28:13Z) - GAN-GA: A Generative Model based on Genetic Algorithm for Medical Image
Generation [0.0]
生成モデルは、医療画像不足問題に対処するための有望な解決策を提供する。
本稿では遺伝的アルゴリズムを組み込んだ生成モデルであるGAN-GAを提案する。
提案モデルは特徴を保ちながら画像の忠実度と多様性を向上させる。
論文 参考訳(メタデータ) (2023-12-30T20:16:45Z) - Multi-Level Global Context Cross Consistency Model for Semi-Supervised
Ultrasound Image Segmentation with Diffusion Model [0.0]
本研究では,Latent Diffusion Model (LDM) によって生成された画像を,半教師付き学習のためのラベル付き画像として利用するフレームワークを提案する。
提案手法により,確率分布の知識をセグメント化ネットワークに効果的に伝達することが可能となり,セグメント化精度が向上する。
論文 参考訳(メタデータ) (2023-05-16T14:08:24Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - SAG-GAN: Semi-Supervised Attention-Guided GANs for Data Augmentation on
Medical Images [47.35184075381965]
本稿では,GAN(Cycle-Consistency Generative Adversarial Networks)を用いた医用画像生成のためのデータ拡張手法を提案する。
提案モデルでは,正常画像から腫瘍画像を生成することができ,腫瘍画像から正常画像を生成することもできる。
本研究では,従来のデータ拡張手法と合成画像を用いた分類モデルを用いて,実画像を用いた分類モデルを訓練する。
論文 参考訳(メタデータ) (2020-11-15T14:01:24Z) - Realistic Adversarial Data Augmentation for MR Image Segmentation [17.951034264146138]
医用画像セグメンテーションのためのニューラルネットワークのトレーニングのための逆データ拡張手法を提案する。
このモデルでは,MR画像における共通の種類のアーチファクトによって生じる強度不均一性,すなわちバイアス場をモデル化する。
このような手法により,モデルの一般化と堅牢性の向上が図られ,低データシナリオにおける大幅な改善が期待できる。
論文 参考訳(メタデータ) (2020-06-23T20:43:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。