論文の概要: Comparison of different CNNs for breast tumor classification from
ultrasound images
- arxiv url: http://arxiv.org/abs/2012.14517v1
- Date: Mon, 28 Dec 2020 22:54:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 12:05:32.628002
- Title: Comparison of different CNNs for breast tumor classification from
ultrasound images
- Title(参考訳): 超音波画像による乳腺腫瘍分類のためのcnnの比較
- Authors: Jorge F. Lazo, Sara Moccia, Emanuele Frontoni and Elena De Momi
- Abstract要約: 超音波画像から良性腫瘍と悪性腫瘍を分類することは重要であるが困難な課題である。
乳腺腫瘍自動分類の課題として,様々な畳み込みニューラルネットワーク(cnns)と転送学習法を比較した。
最高の性能は、精度0.919とauc0.934のvgg-16の微調整によって得られた。
- 参考スコア(独自算出の注目度): 12.98780709853981
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Breast cancer is one of the deadliest cancer worldwide. Timely detection
could reduce mortality rates. In the clinical routine, classifying benign and
malignant tumors from ultrasound (US) imaging is a crucial but challenging
task. An automated method, which can deal with the variability of data is
therefore needed.
In this paper, we compared different Convolutional Neural Networks (CNNs) and
transfer learning methods for the task of automated breast tumor
classification. The architectures investigated in this study were VGG-16 and
Inception V3. Two different training strategies were investigated: the first
one was using pretrained models as feature extractors and the second one was to
fine-tune the pre-trained models. A total of 947 images were used, 587
corresponded to US images of benign tumors and 360 with malignant tumors. 678
images were used for the training and validation process, while 269 images were
used for testing the models.
Accuracy and Area Under the receiver operating characteristic Curve (AUC)
were used as performance metrics. The best performance was obtained by fine
tuning VGG-16, with an accuracy of 0.919 and an AUC of 0.934. The obtained
results open the opportunity to further investigation with a view of improving
cancer detection.
- Abstract(参考訳): 乳がんは世界で最も致命的ながんの1つである。
タイムリーな検出は死亡率を減少させる可能性がある。
臨床的ルーチンでは,超音波画像から良性腫瘍と悪性腫瘍を分類することは重要であるが困難な課題である。
したがって、データの変動に対処できる自動化手法が必要である。
本稿では,乳腺腫瘍の自動分類作業において,異なる畳み込みニューラルネットワーク(CNN)と伝達学習法を比較した。
本研究のアーキテクチャはVGG-16とInception V3である。
1つは事前訓練されたモデルを特徴抽出器として使用し、2つ目は事前訓練されたモデルを微調整することであった。
画像は合計947枚, 良性腫瘍は587枚, 悪性腫瘍は360枚であった。
678枚の画像がトレーニングと検証に使われ、269枚の画像がモデルの試験に使用された。
受信機動作特性曲線(AUC)の精度と面積を性能指標として用いた。
最高の性能は、精度0.919とauc0.934のvgg-16の微調整によって得られた。
得られた結果は、がん検出の改善の観点から、さらなる調査の機会を開く。
関連論文リスト
- Early Detection and Classification of Breast Cancer Using Deep Learning Techniques [0.0]
WHOによると、乳がんは世界で最も致命的ながんの1つで、世界中で毎年大量の患者が死亡している。
乳がんの早期発見に自動化を使用することで、人工知能と機械学習技術は最良の結果を得るために実装できる。
論文 参考訳(メタデータ) (2025-01-21T15:39:29Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Improving Breast Cancer Grade Prediction with Multiparametric MRI Created Using Optimized Synthetic Correlated Diffusion Imaging [71.91773485443125]
乳がん治療計画において、グレーディングは重要な役割を担っている。
現在の腫瘍グレード法では、患者から組織を抽出し、ストレス、不快感、医療費の上昇につながる。
本稿では,CDI$s$の最適化による乳癌の診断精度の向上について検討する。
論文 参考訳(メタデータ) (2024-05-13T15:48:26Z) - LCDctCNN: Lung Cancer Diagnosis of CT scan Images Using CNN Based Model [0.0]
我々は,CTスキャン画像を用いた肺がん早期検出のためのディープラーニングモデルに基づく畳み込みニューラルネットワークフレームワークを提案する。
精度は92%、AUCは98.21%、リコールは91.72%、損失は0.328である。
論文 参考訳(メタデータ) (2023-04-10T18:47:20Z) - Classification of Breast Tumours Based on Histopathology Images Using
Deep Features and Ensemble of Gradient Boosting Methods [0.0]
提案するCADシステムの特徴抽出器の主案として,Deep Feature Transfer Learningが用いられている。
Inception-ResNet-v2は乳癌の病理組織像において最も優れた特徴抽出能を示した。
分類段階では,CatBoost,XGBoost,LightGBMのアンサンブルが最も平均精度が高い。
論文 参考訳(メタデータ) (2022-09-03T09:27:00Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Ensemble Transfer Learning of Elastography and B-mode Breast Ultrasound
Images [3.3615086420912745]
良性および悪性乳癌を分類するためのアンサンブル移動学習モデルを提案する。
このモデルは、AlexNetとResNetモデルのセマンティック機能を組み合わせ、悪性腫瘍から良性を分類します。
実験結果から, このアンサンブルモデルでは感度88.89%, 特異性91.10%が得られた。
論文 参考訳(メタデータ) (2021-02-17T04:23:30Z) - SAG-GAN: Semi-Supervised Attention-Guided GANs for Data Augmentation on
Medical Images [47.35184075381965]
本稿では,GAN(Cycle-Consistency Generative Adversarial Networks)を用いた医用画像生成のためのデータ拡張手法を提案する。
提案モデルでは,正常画像から腫瘍画像を生成することができ,腫瘍画像から正常画像を生成することもできる。
本研究では,従来のデータ拡張手法と合成画像を用いた分類モデルを用いて,実画像を用いた分類モデルを訓練する。
論文 参考訳(メタデータ) (2020-11-15T14:01:24Z) - A Deep Learning Study on Osteosarcoma Detection from Histological Images [6.341765152919201]
最も一般的な悪性骨腫瘍は骨肉腫である。
CNNは、外科医の作業量を著しく減らし、患者の状態の予後を良くする。
CNNは、より信頼できるパフォーマンスを達成するために、大量のデータをトレーニングする必要があります。
論文 参考訳(メタデータ) (2020-11-02T18:16:17Z) - Spectral-Spatial Recurrent-Convolutional Networks for In-Vivo
Hyperspectral Tumor Type Classification [49.32653090178743]
ハイパースペクトル画像とディープラーニングを用いたin-vivo腫瘍型分類の可能性を示した。
我々の最良のモデルは76.3%のAUCを達成し、従来の学習手法とディープラーニング手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-02T12:00:53Z) - An interpretable classifier for high-resolution breast cancer screening
images utilizing weakly supervised localization [45.00998416720726]
医用画像の特徴に対処する枠組みを提案する。
このモデルはまず、画像全体の低容量だがメモリ効率のよいネットワークを使用して、最も情報性の高い領域を識別する。
次に、選択したリージョンから詳細を収集するために、別の高容量ネットワークを適用します。
最後に、グローバルおよびローカル情報を集約して最終的な予測を行うフュージョンモジュールを使用する。
論文 参考訳(メタデータ) (2020-02-13T15:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。