論文の概要: Comparison of different CNNs for breast tumor classification from
ultrasound images
- arxiv url: http://arxiv.org/abs/2012.14517v1
- Date: Mon, 28 Dec 2020 22:54:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 12:05:32.628002
- Title: Comparison of different CNNs for breast tumor classification from
ultrasound images
- Title(参考訳): 超音波画像による乳腺腫瘍分類のためのcnnの比較
- Authors: Jorge F. Lazo, Sara Moccia, Emanuele Frontoni and Elena De Momi
- Abstract要約: 超音波画像から良性腫瘍と悪性腫瘍を分類することは重要であるが困難な課題である。
乳腺腫瘍自動分類の課題として,様々な畳み込みニューラルネットワーク(cnns)と転送学習法を比較した。
最高の性能は、精度0.919とauc0.934のvgg-16の微調整によって得られた。
- 参考スコア(独自算出の注目度): 12.98780709853981
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Breast cancer is one of the deadliest cancer worldwide. Timely detection
could reduce mortality rates. In the clinical routine, classifying benign and
malignant tumors from ultrasound (US) imaging is a crucial but challenging
task. An automated method, which can deal with the variability of data is
therefore needed.
In this paper, we compared different Convolutional Neural Networks (CNNs) and
transfer learning methods for the task of automated breast tumor
classification. The architectures investigated in this study were VGG-16 and
Inception V3. Two different training strategies were investigated: the first
one was using pretrained models as feature extractors and the second one was to
fine-tune the pre-trained models. A total of 947 images were used, 587
corresponded to US images of benign tumors and 360 with malignant tumors. 678
images were used for the training and validation process, while 269 images were
used for testing the models.
Accuracy and Area Under the receiver operating characteristic Curve (AUC)
were used as performance metrics. The best performance was obtained by fine
tuning VGG-16, with an accuracy of 0.919 and an AUC of 0.934. The obtained
results open the opportunity to further investigation with a view of improving
cancer detection.
- Abstract(参考訳): 乳がんは世界で最も致命的ながんの1つである。
タイムリーな検出は死亡率を減少させる可能性がある。
臨床的ルーチンでは,超音波画像から良性腫瘍と悪性腫瘍を分類することは重要であるが困難な課題である。
したがって、データの変動に対処できる自動化手法が必要である。
本稿では,乳腺腫瘍の自動分類作業において,異なる畳み込みニューラルネットワーク(CNN)と伝達学習法を比較した。
本研究のアーキテクチャはVGG-16とInception V3である。
1つは事前訓練されたモデルを特徴抽出器として使用し、2つ目は事前訓練されたモデルを微調整することであった。
画像は合計947枚, 良性腫瘍は587枚, 悪性腫瘍は360枚であった。
678枚の画像がトレーニングと検証に使われ、269枚の画像がモデルの試験に使用された。
受信機動作特性曲線(AUC)の精度と面積を性能指標として用いた。
最高の性能は、精度0.919とauc0.934のvgg-16の微調整によって得られた。
得られた結果は、がん検出の改善の観点から、さらなる調査の機会を開く。
関連論文リスト
- A Two-Stage Generative Model with CycleGAN and Joint Diffusion for
MRI-based Brain Tumor Detection [41.454028276986946]
本稿では,脳腫瘍の検出とセグメンテーションを改善するための2段階生成モデル(TSGM)を提案する。
CycleGANは、未ペアデータに基づいてトレーニングされ、データとして正常な画像から異常な画像を生成する。
VE-JPは、合成対の異常画像をガイドとして使用して、健康な画像の再構成を行う。
論文 参考訳(メタデータ) (2023-11-06T12:58:26Z) - Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - LCDctCNN: Lung Cancer Diagnosis of CT scan Images Using CNN Based Model [0.0]
我々は,CTスキャン画像を用いた肺がん早期検出のためのディープラーニングモデルに基づく畳み込みニューラルネットワークフレームワークを提案する。
精度は92%、AUCは98.21%、リコールは91.72%、損失は0.328である。
論文 参考訳(メタデータ) (2023-04-10T18:47:20Z) - Classification of Breast Tumours Based on Histopathology Images Using
Deep Features and Ensemble of Gradient Boosting Methods [0.0]
提案するCADシステムの特徴抽出器の主案として,Deep Feature Transfer Learningが用いられている。
Inception-ResNet-v2は乳癌の病理組織像において最も優れた特徴抽出能を示した。
分類段階では,CatBoost,XGBoost,LightGBMのアンサンブルが最も平均精度が高い。
論文 参考訳(メタデータ) (2022-09-03T09:27:00Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Ensemble Transfer Learning of Elastography and B-mode Breast Ultrasound
Images [3.3615086420912745]
良性および悪性乳癌を分類するためのアンサンブル移動学習モデルを提案する。
このモデルは、AlexNetとResNetモデルのセマンティック機能を組み合わせ、悪性腫瘍から良性を分類します。
実験結果から, このアンサンブルモデルでは感度88.89%, 特異性91.10%が得られた。
論文 参考訳(メタデータ) (2021-02-17T04:23:30Z) - SAG-GAN: Semi-Supervised Attention-Guided GANs for Data Augmentation on
Medical Images [47.35184075381965]
本稿では,GAN(Cycle-Consistency Generative Adversarial Networks)を用いた医用画像生成のためのデータ拡張手法を提案する。
提案モデルでは,正常画像から腫瘍画像を生成することができ,腫瘍画像から正常画像を生成することもできる。
本研究では,従来のデータ拡張手法と合成画像を用いた分類モデルを用いて,実画像を用いた分類モデルを訓練する。
論文 参考訳(メタデータ) (2020-11-15T14:01:24Z) - A Deep Learning Study on Osteosarcoma Detection from Histological Images [6.341765152919201]
最も一般的な悪性骨腫瘍は骨肉腫である。
CNNは、外科医の作業量を著しく減らし、患者の状態の予後を良くする。
CNNは、より信頼できるパフォーマンスを達成するために、大量のデータをトレーニングする必要があります。
論文 参考訳(メタデータ) (2020-11-02T18:16:17Z) - Spectral-Spatial Recurrent-Convolutional Networks for In-Vivo
Hyperspectral Tumor Type Classification [49.32653090178743]
ハイパースペクトル画像とディープラーニングを用いたin-vivo腫瘍型分類の可能性を示した。
我々の最良のモデルは76.3%のAUCを達成し、従来の学習手法とディープラーニング手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-02T12:00:53Z) - An interpretable classifier for high-resolution breast cancer screening
images utilizing weakly supervised localization [45.00998416720726]
医用画像の特徴に対処する枠組みを提案する。
このモデルはまず、画像全体の低容量だがメモリ効率のよいネットワークを使用して、最も情報性の高い領域を識別する。
次に、選択したリージョンから詳細を収集するために、別の高容量ネットワークを適用します。
最後に、グローバルおよびローカル情報を集約して最終的な予測を行うフュージョンモジュールを使用する。
論文 参考訳(メタデータ) (2020-02-13T15:28:42Z) - Predictive modeling of brain tumor: A Deep learning approach [0.0]
本稿では3つの事前学習モデルを用いて脳MRIスキャンを2つのクラスに分類する畳み込みニューラルネットワーク(CNN)に基づく伝達学習手法を提案する。
実験の結果, Resnet-50モデルが最も精度が高く, 偽陰率は95%, ゼロであった。
論文 参考訳(メタデータ) (2019-11-06T09:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。