論文の概要: Convolutional neural network based on transfer learning for breast
cancer screening
- arxiv url: http://arxiv.org/abs/2112.11629v1
- Date: Wed, 22 Dec 2021 02:27:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-23 15:13:36.426990
- Title: Convolutional neural network based on transfer learning for breast
cancer screening
- Title(参考訳): 乳癌検診における転写学習に基づく畳み込みニューラルネットワーク
- Authors: Hussin Ragb, Redha Ali, Elforjani Jera, and Nagi Buaossa
- Abstract要約: 本稿では, 超音波画像から乳がんを正確に同定するために, 深部畳み込みニューラルネットワークに基づくアルゴリズムを提案する。
537 Benign, 360 malignant, 133 normal image の胸部超音波データセットを用いていくつかの実験を行った。
k-foldクロスバリデーションとバッグアンサンブルを用いて、99.5%の精度と99.6%の感度を実現した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Breast cancer is the most common cancer in the world and the most prevalent
cause of death among women worldwide. Nevertheless, it is also one of the most
treatable malignancies if detected early. In this paper, a deep convolutional
neural network-based algorithm is proposed to aid in accurately identifying
breast cancer from ultrasonic images. In this algorithm, several neural
networks are fused in a parallel architecture to perform the classification
process and the voting criteria are applied in the final classification
decision between the candidate object classes where the output of each neural
network is representing a single vote. Several experiments were conducted on
the breast ultrasound dataset consisting of 537 Benign, 360 malignant, and 133
normal images. These experiments show an optimistic result and a capability of
the proposed model to outperform many state-of-the-art algorithms on several
measures. Using k-fold cross-validation and a bagging classifier ensemble, we
achieved an accuracy of 99.5% and a sensitivity of 99.6%.
- Abstract(参考訳): 乳がんは世界でもっとも一般的ながんであり、女性の間で最も多い死因である。
それにもかかわらず、早期に検出された最も治療可能な悪性腫瘍の1つである。
本稿では, 超音波画像から乳がんを正確に同定するために, 深部畳み込みニューラルネットワークに基づくアルゴリズムを提案する。
このアルゴリズムでは、複数のニューラルネットワークを並列アーキテクチャで融合して分類処理を行い、各ニューラルネットワークの出力が1つの投票を表す候補オブジェクトクラス間の最終的な分類決定に投票基準を適用する。
537 Benign, 360 malignant, 133 normal image の胸部超音波データセットを用いていくつかの実験を行った。
これらの実験は楽観的な結果を示し、提案モデルがいくつかの尺度で多くの最先端アルゴリズムより優れていることを示す。
k-foldクロスバリデーションとバグング分類器アンサンブルを用いて,精度99.5%,感度99.6%を得た。
関連論文リスト
- Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Convolutional neural network classification of cancer cytopathology images: taking breast cancer as an example [40.3927727959038]
本稿では,画像の高速分類に畳み込みニューラルネットワーク(CNN)を用いる手法を提案する。
病理像を良性群と悪性群に迅速かつ自動分類することができる。
本手法は乳がんの病理像の分類における精度を効果的に向上することを示す。
論文 参考訳(メタデータ) (2024-04-12T07:08:05Z) - Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - DenseNet for Breast Tumor Classification in Mammographic Images [0.0]
本研究の目的は,マンモグラフィ画像における乳腺病変の自動検出,分画,分類のための深層畳み込みニューラルネットワーク手法を構築することである。
ディープラーニングに基づいて,選択と抽出を特徴とするmask-cnn(roialign)法を開発し,drknet architectureを用いて分類を行った。
論文 参考訳(メタデータ) (2021-01-24T03:30:59Z) - Metastatic Cancer Image Classification Based On Deep Learning Method [7.832709940526033]
画像分類におけるディープラーニングアルゴリズム, DenseNet169 フレームワーク, Rectified Adam 最適化アルゴリズムを併用したNoval法を提案する。
我々のモデルは、Vgg19、Resnet34、Resnet50のような他の古典的畳み込みニューラルネットワークアプローチよりも優れた性能を実現する。
論文 参考訳(メタデータ) (2020-11-13T16:04:39Z) - The efficiency of deep learning algorithms for detecting anatomical
reference points on radiological images of the head profile [55.41644538483948]
U-Netニューラルネットワークは、完全な畳み込みニューラルネットワークよりも正確に解剖学的基準点の検出を可能にする。
U-Net ニューラルネットワークによる解剖学的基準点検出の結果は,歯科矯正医のグループによる基準点検出の平均値に近づいた。
論文 参考訳(メタデータ) (2020-05-25T13:51:03Z) - Y-Net for Chest X-Ray Preprocessing: Simultaneous Classification of
Geometry and Segmentation of Annotations [70.0118756144807]
この研究は、機械学習アルゴリズムに胸部X線入力のための一般的な前処理ステップを導入する。
VGG11エンコーダをベースとした改良Y-Netアーキテクチャを用いて,ラジオグラフィの幾何学的配向とセグメンテーションを同時に学習する。
対照画像の27.0%,34.9%に対し,95.8%,96.2%のアノテーションマスクが認められた。
論文 参考訳(メタデータ) (2020-05-08T02:16:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。