論文の概要: Research on the Detection Method of Breast Cancer Deep Convolutional
Neural Network Based on Computer Aid
- arxiv url: http://arxiv.org/abs/2104.11551v1
- Date: Fri, 23 Apr 2021 12:03:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 16:26:51.966933
- Title: Research on the Detection Method of Breast Cancer Deep Convolutional
Neural Network Based on Computer Aid
- Title(参考訳): コンピュータ支援に基づく乳癌深層畳み込みニューラルネットワークの検出法に関する研究
- Authors: Mengfan Li
- Abstract要約: 本論文では,コンピュータベースの特徴融合畳み込みニューラルネットワーク乳癌画像分類と検出法を提案する。
乳がん画像データセットの分類におけるこの方法の精度は89%であり、乳がん画像の分類精度は従来の方法と比較して有意に改善されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional breast cancer image classification methods require manual
extraction of features from medical images, which not only require professional
medical knowledge, but also have problems such as time-consuming and
labor-intensive and difficulty in extracting high-quality features. Therefore,
the paper proposes a computer-based feature fusion Convolutional neural network
breast cancer image classification and detection method. The paper pre-trains
two convolutional neural networks with different structures, and then uses the
convolutional neural network to automatically extract the characteristics of
features, fuse the features extracted from the two structures, and finally use
the classifier classifies the fused features. The experimental results show
that the accuracy of this method in the classification of breast cancer image
data sets is 89%, and the classification accuracy of breast cancer images is
significantly improved compared with traditional methods.
- Abstract(参考訳): 従来の乳がん画像分類法では、医療画像から特徴を手作業で抽出する必要があり、専門的な医学知識を必要とするだけでなく、時間消費や労働集約、高品質特徴の抽出が困難である。
そこで本研究では,コンピュータによる畳み込みニューラルネットワークを用いた乳がん画像の分類と検出手法を提案する。
本論文は、異なる構造を持つ2つの畳み込みニューラルネットワークを事前訓練し、その後、畳み込みニューラルネットワークを用いて特徴を自動抽出し、2つの構造から抽出された特徴を融合させ、最後に融合した特徴を分類する。
実験の結果,乳がん画像データセットの分類におけるこの手法の精度は89%であり,従来の方法と比較して乳がん画像の分類精度が有意に向上していることがわかった。
関連論文リスト
- Breast Cancer Image Classification Method Based on Deep Transfer Learning [40.392772795903795]
深層学習と転写学習を組み合わせた乳癌画像分類モデルを提案する。
実験結果から, アルゴリズムは, 従来のモデルに比べて分類精度が有意に向上し, テストセットの84.0%以上の効率を達成することが示された。
論文 参考訳(メタデータ) (2024-04-14T12:09:47Z) - Convolutional neural network classification of cancer cytopathology images: taking breast cancer as an example [40.3927727959038]
本稿では,画像の高速分類に畳み込みニューラルネットワーク(CNN)を用いる手法を提案する。
病理像を良性群と悪性群に迅速かつ自動分類することができる。
本手法は乳がんの病理像の分類における精度を効果的に向上することを示す。
論文 参考訳(メタデータ) (2024-04-12T07:08:05Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Texture Characterization of Histopathologic Images Using Ecological
Diversity Measures and Discrete Wavelet Transform [82.53597363161228]
本稿では,病理組織像間でテクスチャを特徴付ける手法を提案する。
2つのHIデータセットに有望な精度で、そのような画像の固有特性を定量化することが可能である。
論文 参考訳(メタデータ) (2022-02-27T02:19:09Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Sharp-GAN: Sharpness Loss Regularized GAN for Histopathology Image
Synthesis [65.47507533905188]
コンディショナル・ジェネレーショナル・ジェネレーティブ・逆境ネットワークは、合成病理像を生成するために応用されている。
そこで我々は,現実的な病理像を合成するために,シャープネスロス正則化生成対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T18:54:25Z) - Deep Learning for Breast Cancer Classification: Enhanced Tangent
Function [27.761266391596262]
近年,畳み込みニューラルネットワークを用いた深層学習は,乳房細胞の画像の正確な分類に成功している。
Patch-based Adaptive Deepal Neural Network (DCNN) を用いて乳癌の分類精度を高めることを目的とした。
提案手法は, 画像コントラストを向上し, 消失勾配を減少させることにより, がんの精度を高めることに焦点を当てた。
論文 参考訳(メタデータ) (2021-07-01T08:36:27Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - DenseNet for Breast Tumor Classification in Mammographic Images [0.0]
本研究の目的は,マンモグラフィ画像における乳腺病変の自動検出,分画,分類のための深層畳み込みニューラルネットワーク手法を構築することである。
ディープラーニングに基づいて,選択と抽出を特徴とするmask-cnn(roialign)法を開発し,drknet architectureを用いて分類を行った。
論文 参考訳(メタデータ) (2021-01-24T03:30:59Z) - Using Machine Learning to Automate Mammogram Images Analysis [12.19801103274363]
X線マンモグラフィーによる乳がんの早期発見は死亡率を効果的に低下させたと考えられている。
マンモグラム画像を処理するコンピュータ支援自動マンモグラム解析システムを提案し, 正常または癌として自動的に識別する。
論文 参考訳(メタデータ) (2020-12-06T00:10:18Z) - Understanding the robustness of deep neural network classifiers for
breast cancer screening [52.50078591615855]
ディープニューラルネットワーク(DNN)は乳がん検診において有望であるが、その入力摂動に対する堅牢性は臨床的に実装される前によりよく理解する必要がある。
放射線技師レベルのマンモグラム画像分類器の4種類の入力摂動に対する感度を測定した。
また,低域通過フィルタの効果について詳細な解析を行い,臨床的に有意な特徴の視認性を低下させることを示した。
論文 参考訳(メタデータ) (2020-03-23T01:26:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。