論文の概要、ライセンス

# (参考訳) 乳癌検診におけるトランスファーラーニングとウェーブレット変換の利用 [全文訳有]

Use of Transfer Learning and Wavelet Transform for Breast Cancer Detection ( http://arxiv.org/abs/2103.03602v1 )

ライセンス: CC BY 4.0
Ahmed Rasheed, Muhammad Shahzad Younis, Junaid Qadir and Muhammad Bilal(参考訳) 乳がんは女性の間で最も一般的な死因の1つである。 マンモグラフィーは、がんの早期発見に使用できる画像モダリティとして広く用いられている。 深層学習はマンモグラフィーで得られた画像中の癌塊の検出に広く用いられている。 データセットの感度特性により精度を向上させる必要性は一定であり、画像スキャンにおける重要な特徴を高めるためにセグメンテーションとウェーブレット変換を導入する。 提案システムは, がん検出のスクリーニング段階において, セグメンテーションとウェーブレット変換の組み合わせを前処理の強化として用い, ニューラルネットワークの伝達学習に寄与する。 これらの前処理技術により,Mini-MIASにおける検出精度を大幅に向上させる。

Breast cancer is one of the most common cause of deaths among women. Mammography is a widely used imaging modality that can be used for cancer detection in its early stages. Deep learning is widely used for the detection of cancerous masses in the images obtained via mammography. The need to improve accuracy remains constant due to the sensitive nature of the datasets so we introduce segmentation and wavelet transform to enhance the important features in the image scans. Our proposed system aids the radiologist in the screening phase of cancer detection by using a combination of segmentation and wavelet transforms as pre-processing augmentation that leads to transfer learning in neural networks. The proposed system with these pre-processing techniques significantly increases the accuracy of detection on Mini-MIAS.
公開日: Fri, 5 Mar 2021 11:08:56 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 r a M 5 ] V C . 1 2 0 2 r a m 5 ] v c である。 0.80
s c [ 1 v 2 0 6 3 0 . s c [ 1 v 2 0 6 3 0 . 0.85
3 0 1 2 : v i X r a 3 0 1 2 : v i X r a 0.85
1 Use of Transfer Learning and Wavelet Transform 1 転送学習とウェーブレット変換の利用 0.88
for Breast Cancer Detection Ahmed Rasheed, Muhammad Shahzad Younis, Junaid Qadir and Muhammad Bilal 乳がん検出のために Ahmed Rasheed, Muhammad Shahzad Younis, Junaid Qadir, Muhammad Bilal 0.83
Abstract—Breast cancer is one of the most common cause of deaths among women. 抽象化—乳癌は女性の間で最も多い死因の1つである。 0.75
Mammography is a widely used imaging modality that can be used for cancer detection in its early stages. マンモグラフィーは、がんの早期発見に使用できる画像モダリティとして広く用いられている。 0.69
Deep learning is widely used for the detection of cancerous masses in the images obtained via mammography. 深層学習はマンモグラフィーで得られた画像中の癌塊の検出に広く用いられている。 0.83
The need to improve accuracy remains constant due to the sensitive nature of the datasets so we introduce segmentation and wavelet transform to enhance the important features in the image scans. データセットの感度特性により精度を向上させる必要性は一定であり、画像スキャンにおける重要な特徴を高めるためにセグメンテーションとウェーブレット変換を導入する。 0.80
Our proposed system aids the radiologist in the screening phase of cancer detection by using a combination of segmentation and wavelet transforms as pre-processing augmentation that leads to transfer learning in neural networks. 提案システムは, がん検出のスクリーニング段階において, セグメンテーションとウェーブレット変換の組み合わせを前処理の強化として用い, ニューラルネットワークの伝達学習に寄与する。 0.77
The proposed system with these pre-processing techniques significantly increases the accuracy of detection on Mini-MIAS. これらの前処理技術により,Mini-MIASにおける検出精度を大幅に向上させる。 0.64
Index Terms—Neural nets, Segmentation, Transfer Learning, Breast Cancer Detection, Deep Learning, Medical Imagery. インデックス用語 — 神経ネット、セグメンテーション、転送学習、乳癌の検出、ディープラーニング、医療画像。 0.64
! 1 INTRODUCTION B ASED on the research of World Health Organization (WHO), 22.9% of the total cancer cases diagnosed are of breast cancer and accounts for 13.7% cancer-related deaths all over the world [1], which places breast cancer at second place in the leading causes of cancer-deaths among women behind heart diseases [16]. ! 世界保健機関(WHO)の調査による第1回紹介Bは、診断された全がん症例の22.9%が乳がんであり、世界中の13.7%ががん関連死亡であり、心臓病の背後にある女性における癌死の主要な原因に乳がんを第2位に配置しています[16]。 0.81
Early detection of tumors or irregular masses can save the lives of many. 腫瘍または不規則な塊の早期発見は、多くの命を救うことができます。 0.58
Breast cancer has over 90% chance of being cured at its early stage but it does not get much attention until it gets severe as it is not painful in its early stage. 乳がんは、早期に治癒する可能性は90%以上ありますが、初期段階で痛みがないので重症になるまであまり注目されません。 0.70
Computer-aided systems are now of great interest to reduce the number of cancer casualties by detecting it in the early stages and helping out the radiologists in making important decisions [2]. コンピュータ支援システムは、がんを早期に検出し、放射線医が重要な決定を下すのを助けることによって、がんの死傷者数を減らすために非常に興味があります[2]。
訳抜け防止モード: コンピュータ支援システムは、がんの早期発見によるがんの死亡者数を減らすための大きな関心を集めている。 放射線科医が重要な決定を下すのを手伝う[2].
0.75
There are two types of mammography examinations, screening and diagnostic. マンモグラフィ検査にはスクリーニングと診断の2種類がある。 0.68
Diagnostic examination is a follow-up method for patients who are already classified with abnormal tissues by a proper channel in early screening process [3]. 診断検査は、早期スクリーニングプロセスの適切なチャネルによって、すでに異常組織に分類されている患者のフォローアップ方法です[3]。 0.84
Screening of mammography generally has four views—the Craniocaudal (CC) view and Mediolateral (MLO) view for each breast. マンモグラフィのスクリーニングには一般的に4つの視点がある: craniocaudal(cc)ビューとmediolateral(mlo)ビュー。 0.74
For further diagnostic more views are also referred for in-depth analysis by radiologists. さらなる診断のために、放射線科医による詳細な分析も参照される。 0.65
In our system we worked on the classification of screening problem which will help the radiologists in correct diagnostics and determining the next steps. 本システムでは,放射線科医が適切な診断を行い,次のステップを決定するのに役立つスクリーニング問題の分類に取り組んできた。
訳抜け防止モード: 我々のシステムでは スクリーニング問題の分類に取り組みました 放射線科医が診断を正し 次のステップを決定するのに役立ちます
0.84
We propose a system that utilizes the knowledge and techniques of image processing and deep learning resulting in the classification of masses found in the x-ray scans of breasts known as mammograms. 本研究では,乳房のx線スキャンによる乳房x線像の分類を行うために,画像処理と深層学習の知識と技術を活用するシステムを提案する。 0.76
The abnormalities are • Ahmed Rasheed and Muhammad Shahzad Younis are with School of Electrical Engineering and Computer Science, National University of Sciences and Technology, Islamabad, Pakistan. ahmed rasheedとmuhammad shahzad younisには、パキスタンのイスラマバードにある国立科学技術大学(national university of sciences and technology)の電気工学・計算機科学学校がある。 0.71
E-mail: arasheed.msee17seecs @seecs.edu.pk E-mail: muhammad.shahzad@see cs.edu.pk • Junaid Qadir is with Information Technology University (ITU)-Punjab, Lahore, Pakistan. E-mail: arasheed.msee17seecs @seecs.edu.pk E-mail: muhammad.shahzad@see cs.edu.pk • Junaid Qadir is with Information Technology University (ITU)-Punjab, Lahore, パキスタン。 0.70
E-mail: junaid.qadir@itu.edu .pk • Muhammad Bilal is with University of the West of England (UWE), Bristol, England. 英語) Junaid.qadir@itu.edu .pk • Muhammad Bilal is with the University of the West of England (UWE), Bristol, England 0.88
E-mail: muhammad.Bilal@uwe.a c.uk メール: muhammad.Bilal@uwe.a c.uk 0.56
classified in the different classes based on the structure, shape, and composition of tissues present. 組織の構造、形および構成に基づいて異なったクラスで分類される。 0.72
Furthermore, the system can also tell the severity of the abnormality in two more classes (i.e., is the abnormality benign and malignant). さらに、システムはさらに2つのクラス(すなわち、異常性良性および悪性)における異常の重症度を判定することができる。 0.86
In particular, Deep Learning and Image Processing techniques are used in our proposed system to classify the abnormalities in the mammographic scans obtained from “Mammographic Image Analysis Society” (MIAS) database. 特に,本システムでは「マンモグラフィ画像解析学会」(mias)データベースから得られたマンモグラフィスキャンの異常を分類するために,深層学習と画像処理技術が用いられている。 0.84
In this work, we use a combination of Wavelet transforms, Segmentation and Convolutional Neural Networks (CNN) for breast cancer abnormality detection, which provides promising results with increased efficiency of detection. 本研究では,ウェーブレット変換,セグメンテーション,畳み込みニューラルネットワーク(cnn)を併用して乳癌の異常検出を行い,その検出効率の向上を期待する。 0.73
CNN is best for learning different features from each class under observation. CNNは観察中の各クラスから異なる機能を学ぶのに最適です。 0.84
It uses filters of different sizes which helps the network in learning and recognizing the patterns in the images [24]. 異なるサイズのフィルタを使用しており、ネットワークが画像のパターンを学習し認識するのに役立ちます[24]。 0.88
Wavelet transform and segmentation are widely used image processing techniques that enhance the features present in the image scan. ウェーブレット変換とセグメンテーションは、画像スキャンに存在する特徴を強化する画像処理技術として広く使われている。 0.66
These features are then learned by the CNN to classify the images. これらの特徴はcnnによって学習され、画像を分類する。 0.62
Wavelet transform takes the image in frequency domain and then decompose it into sub-band images from which different features can be extracted easily [21] [22]. ウェーブレット変換は周波数領域で画像を分解してサブバンド画像に分解し、異なる特徴を容易に抽出する [21] [22] 。
訳抜け防止モード: ウェーブレット変換は周波数領域で画像を取り込み、そこからサブバンド画像に分解する 異なる特徴を容易に抽出できます [21 ] [22 ]
0.85
Segmentation on the other hand enhances the boundaries and corners in the image, it splits the the image into several portions. 一方、セグメンテーションは画像の境界とコーナーを強化し、画像をいくつかの部分に分割します。 0.69
Each portion signifies a useful data in the form of different gray-levels. 各部分は、異なるグレーレベルの形態で有用なデータを表す。 0.72
Segmentation of medical images highlight the important parts under study like the tumors in the problem under consideration [23]. 医用画像のセグメンテーションは, 検討中の課題において, 腫瘍などの研究対象の重要部分を強調している[23]。 0.73
The combination of wavelet transform and segmented image used as the inputs of the CNN helps the network in learning the significant features and improves the overall efficiency of the classification done by the network [25]. CNNの入力として使用されるウェーブレット変換と分割画像の組み合わせは、ネットワークが重要な特徴を学習し、ネットワークが行う分類の全体的な効率を改善するのに役立つ[25]。 0.84
This study can further be used to develop Computer-aided Design (CAD) which would be useful for the radiologists to detect cancer in its early stages and take the necessary actions needed. この研究は、放射線医ががんを早期に検出し、必要な行動を取るのに役立つコンピュータ支援設計(CAD)を開発するためにさらに使用することができます。 0.79
Training deep CNNs from scratch is not easy as a very large dataset along with high-end computing resources are needed. 高度なCNNをゼロからトレーニングすることは、非常に大きなデータセットとハイエンドのコンピューティングリソースを必要とするため容易ではない。
訳抜け防止モード: 深層cnnをスクラッチからトレーニングする 簡単ではありません 非常に大きなデータセットとハイエンドのコンピューティングリソースが必要です。
0.64
One way to resolve this constraint is to use Transfer learning in which already-trained deep ML models are used この制約を解決する方法の1つは、すでに訓練済みの深層MLモデルを使用するTransfer Learningを使用することである。
訳抜け防止モード: この制約を解決する一つの方法は 既に訓練された深層mlモデルを用いた転送学習の利用
0.75
英語(論文から抽出)日本語訳スコア
in a related but different setting and tuned according to one’s needs through the removal or addition of a small number of new layers at the end of the network and then training of only the newly added layers [15]. ネットワークの端に少数の新しいレイヤーを削除または追加し、新しく追加されたレイヤーのみをトレーニングすることによって、関連するが異なる設定で調整され、自分のニーズに応じて調整されます[15]。 0.79
This method is especially effective when we have smaller datasets and wish to augment the learning on these datasets with more general readily-available information captured by the existing models [20]. この方法は、データセットが小さくなり、既存のモデルによってより一般的に入手しやすい情報でこれらのデータセットの学習を強化したい場合に特に効果的です[20]。 0.66
Pre-trained Deep Neural Networks (DNNs) are tested on the database using transfer learning techniques and pre-processed images are passed to them. 学習済み深層ニューラルネットワーク(dnn)を転送学習技術を用いてデータベース上でテストし、事前処理した画像をデータベースに渡す。 0.66
The proposed system presents a state-of-the-art architecture which combines the knowledge of image processing and neural networks to form a single network in order to detect the breast cancer from the mammograms. このシステムは、マンモグラムから乳癌を検出するために、画像処理とニューラルネットワークの知識を組み合わせて単一のネットワークを形成する最先端のアーキテクチャを提示します。 0.78
Moreover, the system proposed does two step image classification. さらに,提案システムは2段階の画像分類を行う。 0.88
The first one, a seven class classification detects the abnormality in the image mammogram and the latter one, a three-class classification, tells the severity of the case using the mammogram and information obtained from the first network combined. 第1の分類,第7の分類,第2の分類,第3の分類,第3の分類は,画像マンモグラムを用いて症例の重症度と第1のネットワークから得られた情報とを合成する。 0.76
The arrangement forms a hybrid system which in turns improves the results of the classification by a significant factor and provides state-of-the-art results for a three-class classification of mammograms.Breast cancer classification has been majorly accomplished via binary classification. 本手法は, 3種類のマンモグラムの分類において, 有意な因子による分類結果の改善を図り, 最先端の結果を提供するハイブリッドシステムである。 0.67
[42] [43] [44] The proposed methodology goes a step further and uses three class-classification for breast cancer detection where, in addition to detecting the tumor, it also identifies whether the detected tumor is benign or malignant. 42] [43] [44] 提案された方法はさらに一歩進み、乳がんの検出に3つのクラス分類を使用し、腫瘍の検出に加えて、検出された腫瘍が良性または悪性であるかどうかも識別します。 0.78
The rest of the paper is organized in the following way. 残りの論文は以下の方法で整理されている。 0.75
Background and related works are presented in Section II. 背景及び関連作品は第2節に記載されている。 0.56
The details of the dataset are presented in Section III. データセットの詳細は第3節で述べられている。 0.67
The details of our methodology are provided in Section IV. 我々の方法論の詳細は第4節で述べられている。 0.53
Our results are provided in Section V. Finally, the paper is concluded in Section VI. 私たちの結果はセクションVで提供されています。最後に、論文はセクションVIで終了します。 0.52
2 BACKGROUND AND RELATED WORK Deep learning models are trained to achieve human-like intelligence and decision making. 2 BACKGROUND and RELATED WORK Deep Learning model are trained to achieve human-like intelligence and decision making。 0.89
Lots of work already has been done in medical field to achieve models with state-ofthe-art accuracy on different medical datasets and different problems [4] [5] [11]. 異なる医療データセットと異なる問題に対する最先端の精度でモデルを達成するために、医療分野ではすでに多くの作業が続けられています [4] [5] [11]。 0.72
Use of deep learning models can be traced back to late 90s. ディープラーニングモデルの使用は90年代後半まで遡ることができる。 0.68
CNN architecture is widely used for the classification of image-based data. CNNアーキテクチャは画像ベースデータの分類に広く利用されている。 0.78
Already trained networks can be found on databases to classify the images into unique classes. すでにトレーニング済みのネットワークがデータベース上に存在し、イメージをユニークなクラスに分類することができる。
訳抜け防止モード: すでにトレーニング済みのネットワークがデータベースで見つかる 画像をユニークなクラスに分類する。
0.80
Significant amount of work has already been done in classifying the mammograms based on their abnormalities. マンモグラフィーの異常に基づいて分類する作業は、すでにかなりの量の作業がおこなわれている。 0.57
For classification various techniques are used for image pre-processing and augmentation to aid the neural network and improve its performance. 分類には、画像の前処理と拡張のために様々な技術が使われ、ニューラルネットワークを補助し、その性能を向上させる。
訳抜け防止モード: 分類には、画像前処理と拡張に様々な技術が使用される ニューラルネットワークの能力向上に役立ちます
0.78
The background and related work done in medical imaging and most importantly in breast cancer detection has utilized a lot of techniques however separately. 医療画像や乳がんの検出における背景と関連作業は、多くのテクニックを別々に活用しています。 0.75
Most breast cancer detection techniques have utilized wavelets for feature enhancement [27] [29], segmentation for diagnosis [4] [46] and transfer learning CNN networks for classification. ほとんどの乳がん検出技術はウェーブレットを機能強化[27][29]、診断用セグメンテーション[4][46]、分類のためのトランスファー学習cnnネットワークとして利用してきた。 0.75
[47] [48] [49] in their individuality. 47] [48] [49] 彼らの個性。 0.70
The proposed system differs as it combines all three of these techniques and consequently gives a much improved results than achieved before with the individual techniques. 提案手法は, これら3つのテクニックを組み合わせ, 個々のテクニックと組み合わせることで, 従来よりもはるかに改善された結果が得られる。 0.74
The resultant AUC 2 [Area Under the Receiver Operating Characteristic (ROC) curve] gives a much improved classification. 結果のAUC 2 [受信者動作特性(ROC)曲線下の領域]は、はるかに改善された分類を与えます。 0.66
2.1 AUC-ROC Area Under the Curve - Receiver Operating Characteristic (AUC-ROC) Curve is a metric for establishing the extent to which a model can distinguish classes. 2.1 AUC-ROC Area Under the Curve - Receiver Operating Characteristics (AUC-ROC) Curveは、モデルがクラスを区別できる範囲を確立するための指標である。 0.83
AUC-ROC curves have been used as an apt measurement standard for medical imagery [41].Higher the AUC-ROC, better the performance of the model. AUC-ROC 曲線は、医療画像の apt 測定基準 [41] として使用されており、AUC-ROC が高いほど、モデルの性能が向上します。
訳抜け防止モード: AUC - ROC曲線は, 医用画像のアプ測定基準として使用されている[41]。 モデルの性能が向上します。
0.81
Our system generates an AUC-ROC curve, on the mini-MIAS dataset for breast cancer detection, that shows more promising results than previous works done. 乳がん検出のためのmini-miasデータセット上でauc-roc曲線を生成し,従来よりも有望な結果を得た。 0.63
2.2 Segmentation The first technique used by our proposed system is image segmentation based on the intensities of the mammogram images. 2.2 セグメンテーション 提案システムで最初に使用する手法は,マンモグラフィ画像の強度に基づく画像セグメンテーションである。 0.82
The segmentation helps the system to find the Region of Interests (ROI). このセグメンテーションは、システムが関心領域(ROI)を見つけるのに役立つ。 0.72
For this purpose, noise is removed first by adaptive mean filtering as this filter removes the noise effectively and is better among noise removal filters. この目的のために、適応平均フィルタによりノイズを除去し、ノイズ除去フィルタよりも優れたノイズを除去する。 0.71
Adaptive filter works by comparing each pixel of the image to its neighboring pixel. 適応フィルタは、画像の各ピクセルと隣接するピクセルを比較することで機能する。 0.73
If the pixel does not match with the majority of its neighboring pixels then it is considered as noise and is then replaced by the mean value. ピクセルが隣接するピクセルの大部分と一致しない場合は、ノイズとみなされ、平均値に置き換えられます。
訳抜け防止モード: ピクセルが隣接するピクセルの大半と一致しない場合。 それからそれは騒音として考慮され、それから平均値に取り替えられます。
0.76
After the noise removal K-mean clustering algorithm is applied to the image. ノイズ除去K平均クラスタリングアルゴリズムが画像に適用された後。 0.79
This algorithm selects the k number of centroids for the regions and then allocates the pixels to the regions based on the clustering of neighboring pixels. このアルゴリズムは、領域のk個のcentroidを選択し、隣接するピクセルのクラスタリングに基づいて、その領域に画素を割り当てる。 0.74
It is widely used in the segmentation of medical images as it is important to extract only the desired regions from an image which may not be easily distinguishable [34] [36]. 容易に区別できない画像から所望の領域のみを抽出することが重要である[34][36]ため、医用画像のセグメンテーションにおいて広く用いられている。
訳抜け防止モード: 画像から所望の領域のみを抽出することが重要であるため、医用画像のセグメンテーションにおいて広く用いられている。 容易に区別できないかもしれない[34][36].
0.91
For the classification purposes segmentation is used as an aid to improve the performance. 分類の目的では、セグメンテーションはパフォーマンスを改善する助けとして使用される。 0.72
BichenZheng [35] used a hybrid network of K-means segmentation and Support Vector Machine (SVM) to show the improved accuracies in the detection of breast cancer. BichenZheng [35] は K-means segmentation and Support Vector Machine (SVM) のハイブリッドネットワークを用いて乳癌検出の精度の向上を示した。 0.79
2.3 Wavelet Tranform Wavelet transform is a well-known image processing technique to extract the features from an image. 2.3 Wavelet Tranform Wavelet変換は画像から特徴を抽出する画像処理技術としてよく知られている。 0.81
This technique is used to augment the available data by providing the wavelets of original and segmented mammographic scans. この技術は、オリジナルおよびセグメント化されたマンモグラフィスキャンのウェーブレットを提供することで利用可能なデータを強化するために使用されます。
訳抜け防止モード: この技法は オリジナル及びセグメント化されたマンモグラフィスキャンのウェーブレットを提供することにより、利用可能なデータを増強する。
0.61
The main advantage of using wavelets is that they do a simultaneous localization in frequency and time domain and is faster than other methods like FFTs [13] [17] [18]. ウェーブレットを使用する主な利点は、周波数と時間領域の同時ローカライズを行い、FFT[13][17][18]のような他の手法よりも高速である。 0.78
Wavelet transform has been used in several researches to aid radiologists in understanding the image scans [26] [27] [40]. ウェーブレット変換は、放射線学者が画像スキャン [26] [27] [40] を理解するのを助けるためにいくつかの研究で用いられている。
訳抜け防止モード: ウェーブレット変換はいくつかの研究で使われている 画像スキャン [26 ] [27 ] [40 ] を理解するのに 放射線科医が役立ちます
0.74
It enhances the features in the image scan which are also beneficial for neural networks to learn and classify the images more effectively. 画像スキャンの機能が強化され、ニューラルネットワークが画像の学習と分類をより効果的に行えるようになる。 0.74
In medical imaging wavelets are mostly used as pre-processing technique for image feature extraction. 医療画像のウェーブレットは、主に画像特徴抽出の前処理技術として使用される。 0.65
Liu et al [28], Ferreira and Borges [29] and Rashed et al [30] showed that using wavelet transform in classification improves its results in medical imaging. Liu et al [28], Ferreira and Borges [29], Rashed et al [30] は、ウェーブレット変換を分類に用いて、医用画像における結果を改善することを示した。 0.79
Wavelet transforms helps to enhance the important features like the edges of tumor present in the breast scan. ウェーブレット変換は、乳腺スキャンに存在する腫瘍の端のような重要な特徴を強化するのに役立つ。 0.60
The general equation of the wavelet transform is provided next. 次にウェーブレット変換の一般方程式が与えられる。 0.72
英語(論文から抽出)日本語訳スコア
W j k = f (x)Ψ( W j k = f(x)ψ() 0.87
2j − k)dx x 2j − k)dx x 0.97
(cid:90) (1) Here Ψ is transforming function, f(x) represents the original signal while k and j are translation and scale parameters respectively [14]. (cid:90) 1) ここで ψ は変換関数であり、f(x) は元の信号を表し、k と j はそれぞれ翻訳パラメータとスケールパラメータである [14]。 0.82
Figure 1 shows the visual representation of 2D wavelet transforms. 図1は2次元ウェーブレット変換の視覚表現を示している。 0.69
Here W j V presents detailed components in diagonal, horizontal and vertical direction at the desired level j. ここでW j Vは、所望のレベルjの対角方向、水平方向、垂直方向の詳細なコンポーネントを提示する。 0.68
H and W j D, W j H と W の j D, W j 0.89
Fig. 1: 2D Wavelet transform layer representation up to 3 levels. フィギュア。 1: 2次元ウェーブレット変換層は最大3レベルまで表現する。 0.59
2.4 Augmentation Dataset augmentation refers to the task of generating new images from the existing dataset, which improves the data scarcity and prevents the network from over-fitting [8]. 2.4 Augmentation Dataset augmentationは、既存のデータセットから新しい画像を生成するタスクを指し、データの希少性を改善し、ネットワークが過剰フィットすることを防ぎます[8]。 0.77
Image augmentation is used as the data enhancement technique when you do not have a big database of images. 画像の大きいデータベースを持っていない場合、画像拡張はデータ強化技術として使用されます。 0.79
It is considered an important aspect when using CNN for classification as it improves the generality of the network [31] [32]. ネットワーク[31][32]の一般性を改善するため,分類にCNNを使用する場合,それは重要な側面と考えられる。 0.82
Holger R. Roth [33] proved that data augmentation significantly improves the performance of the network in classification problems. Holger R. Roth [33] は、データの増大は分類問題におけるネットワークの性能を著しく向上させることを示した。 0.71
2.5 Deep Neural Network (DNN) DNN is used at the end for the classification among selected classes. 2.5 Deep Neural Network (DNN) DNNは、選択したクラスの分類に最後に使用される。 0.85
DNN is now widely used in medical classification. 現在、DNNは医学分類で広く使われている。 0.76
A lot of work has also been done in classifying the breast cancer using DNN [37] [38] [39]. DNN [37] [38] [39]を使用して乳がんの分類にも多くの作業が行われています。 0.76
These layers are then trained on the training dataset while the weights of all other layers in the pre-trained models are kept frozen. これらのレイヤはトレーニングデータセットでトレーニングされ、事前トレーニングされたモデルの他のすべてのレイヤの重みは凍結される。 0.60
This technique is known as “Transfer Learning”. このテクニックは「Transfer Learning」と呼ばれています。 0.74
The purpose of using transfer learning is to effectively utilize the complex structure of premade CNNs and to efficiently train the network on a smaller dataset. 転送学習の目的は、プリメイドCNNの複雑な構造を効果的に活用し、より小さなデータセットでネットワークを効率的に訓練することである。
訳抜け防止モード: 転帰学習の目的は プリメードCNNの複雑な構造を効果的に活用し、より小さなデータセットでネットワークを効率的に訓練する。
0.83
1. Pre-trained CNN: An already trained network is more useful instead of building a whole new CNN architecture from the scratch and then training it on our smaller dataset. 1. 事前トレーニングされたCNN: 完全に新しいCNNアーキテクチャをスクラッチから構築し、小さなデータセットでトレーニングするよりも、すでにトレーニング済みのネットワークの方が便利です。 0.78
This would not give good results on the output of the network. これは、ネットワークの出力に良い結果を与えません。 0.80
For this purpose, the number of already trained models are used by replacing the final three layers of these models with the new fully connected and classification layers according to our desired number of classes. この目的のために、既に訓練済みのモデルの数は、これらのモデルの最終3層を、希望するクラス数に応じて、新しい完全連結層と分類層に置き換えることで利用されます。 0.72
3 For the purpose of transfer learning, our proposed system uses the previously trained state-of-the-art CNNs. 3 転送学習を目的とし,従来訓練されたcnnを用いたシステムを提案する。 0.73
• AlexNet: Krizhevsky in 2012 [6] achieved 15.3% top-5 test error rate in the ImageNet Large Scale Visual Recognition Challenge (ILSVRC) with their unique CNN architecture called AlexNet that consisted of convolutional layers, dropout layers, pooling layers, and at last fully connected layers [12]. • AlexNet: 2012年のKrizhevsky [6]は、コンボリューション層、ドロップアウト層、プール層、そして最終的に完全に接続された層で構成されるAlexNetと呼ばれる独自のCNNアーキテクチャにより、ImageNet Large Scale Visual Recognition Challenge(ILSVRC)で15.3%のトップ5テストエラー率を達成しました[12]。 0.77
The success of AlexNet ushered in the era of deep learning and CNNs. AlexNetの成功は、ディープラーニングとCNNの時代を後押しした。 0.75
• VGGNet: Simonyan and Zisserman in 2014 introduced a 19-layer deeper CNN achieving top results in ImageNet ILSVRC [7]. VGGNet: 2014年にSimonyanとZissermanは、ImageNet ILSVRC [7]でトップ結果を達成した19層の深いCNNを導入しました。 0.65
Their proposed network had small convolutional filters which in the end showed a notable increase in accuracy. 提案するネットワークは小さな畳み込みフィルタを備えており、結果として精度が著しく向上した。 0.64
This work led CNNs architectures to have deep network of layers for better feature representations. この作業によりCNNのアーキテクチャは、より優れた機能表現のためのレイヤーの深いネットワークを持つようになった。 0.54
• GoogleNet: Szegedy et al in 2014 entered ImageNet ILSVRC with a deeper network. 2014年にGoogleNet: Szegedyらは、より深いネットワークでImageNet ILSVRCに入った。 0.79
This network was trained on high end resources and achieved a 6.7% error rate in top-5 test [8].This network used a parallel inception network instead of sequentially stacking the layers one after the other in the architecture. このネットワークは、ハイエンドのリソースでトレーニングされ、トップ5のテストで6.7%のエラー率を達成しました [8] このネットワークは、アーキテクチャで次々にレイヤーを積み重ねる代わりに、並列インセプションネットワークを使用しました。 0.80
• ResNet: He et al in 2015 introduced a network architecture consisting of 152 layers [9].This set a new record in ILSVRC by achieving a 3.57% top-5 error rate in the classification of the ImageNet database. • ResNet: Heらは2015年に152層[9]からなるネットワークアーキテクチャを導入し、ImageNetデータベースの分類において3.57%のトップ5エラー率を達成してILSVRCの新記録を樹立した。 0.86
They introduced a huge number of smaller layers which made the model a very deep network but doing so reduced the complexity of it. 彼らは、モデルを非常に深いネットワークにする多数の小さなレイヤを導入しましたが、その複雑さを減らしました。
訳抜け防止モード: 多数の小さな層を導入しました モデルは非常に深いネットワークになったが、それによって複雑さが減った。
0.82
All the aforementioned deep network architectures have been trained on the ImageNet database and have been made designed to classify the input image into one of 1000 classes. 前述のディープネットワークアーキテクチャはすべてImageNetデータベースでトレーニングされており、入力イメージを1000クラスの1つに分類するように設計されている。 0.85
To use them for the proposed problem, the concept of transfer learning is used. 提案する問題にそれらを使うには,転送学習という概念が用いられる。 0.85
In transfer learning, the last three or more network layers are removed and new layers are appended with the desired number of neurons in the last fully-connected layer based on the number of classes for the desired task. 転送学習では、最後の3つ以上のネットワーク層が削除され、希望するタスクのクラス数に基づいて、最後の完全に接続されたレイヤ内の望ましい数のニューロンに新しい層が追加されます。 0.74
Learning rate is set high for the newly added fully-connected layers. 新たに追加されたフルコネクテッドレイヤーの学習レートは高く設定されます。 0.71
The network above remains unchanged and the new layers are trained on the newer dataset. 上記のネットワークは変わらず、新しいレイヤはより新しいデータセットでトレーニングされる。 0.74
A validation check is performed after every few iterations to check the performance of the network training. ネットワークトレーニングのパフォーマンスを確認するために、数イテレーション毎にバリデーションチェックが行われる。 0.78
2. Augmentation: The above-mentioned techniques, segmentation, and wavelet transforms, are also used as data augmentation and fed to the network for the training purpose. 2. Augmentation: 上記のテクニック、セグメンテーション、ウェーブレット変換もデータ拡張として使用され、トレーニング目的のためにネットワークに供給される。 0.80
Apart from this, the basic augmentation is also done which includes the rotation, translation, scaling, and sheer of the images with random values. これとは別に、ランダムな値を持つ画像の回転、翻訳、スケーリング、およびシャーを含む基本的な拡張も行われます。 0.65
3. Transfer Learning: Transfer learning the transfer of knowledge obtained from one domain to another domain of different application. 3. 転送学習: あるドメインから取得した知識を異なるアプリケーションの別のドメインに転送する。 0.81
Transfer learning is a part of deep learninng and comes in handy when the data on which the system is to be trained is a small database [15] [19]. 転送学習は深層学習の一部であり、システムのトレーニング対象となるデータが小さなデータベース [15] [19] である場合に便利である。 0.77
In the proposed system the it is used by transferring the knowledge of a pre-trained network to our setting which is abnormality detection in mammogram scans. 提案されたシステムでは、事前に訓練されたネットワークの知識をマンモグラムスキャンの異常検出である私たちの設定に転送することによって使用されます。
訳抜け防止モード: 提案システムでは,その使用法について述べる。 マンモグラフィースキャンでは 事前訓練されたネットワークの知識を 異常検出装置に転送しました
0.74
Fig. 2 shows the visual representation of transfer learning process. フィギュア。 2は、転送学習プロセスの視覚的表現を示す。 0.61
Our system proposes a novel structure using the combination of above mentioned techniques. 本システムでは,上記の手法を組み合わせた新しい構造を提案する。 0.81
A lot of work has been done on the given problem of classification using 分類の特定の問題について多くの作業が行われています。 0.71
英語(論文から抽出)日本語訳スコア
Fig. 2: Transfer Learning Process フィギュア。 2:トランスファーラーニングのプロセス 0.62
these techniques individually. Our proposed system made with the combinations shows a significant improve in the efficiency. 個々の技術です コンビネーションによる提案システムは、効率の大幅な向上を示しています。 0.70
The segmentation and wavelet transforms act as the pre-processed augmentation of image data which helps out the DNN in learning features in a more effective way. セグメンテーションとウェーブレット変換は、画像データの事前処理の強化として機能し、より効果的な方法でDNNを学習するのに役立つ。 0.66
Furthermore, the proposed system uses two DNNs in a cascaded way, reported in the section below, which also helps the system learn the classes in a better way. さらに、提案されたシステムは、以下のセクションで報告された2つのDNNを使用しており、システムがより良い方法でクラスを学ぶのに役立ちます。 0.74
3 DATASET Neural networks require a large number of images as input for the training purposes. 3 dataSET ニューラルネットワークはトレーニング目的の入力として多数の画像を必要とする。 0.81
Because of limited resources of large dataset availability, the dataset used for this research is mini MIAS dataset [10]. 大規模なデータセットの可用性のリソースが限られているため、この研究に使用されるデータセットはミニMIASデータセット[10]です。 0.68
It comprises of total 322 images which are further divided into a number of classes. 合計322枚の画像で構成され、さらに多くのクラスに分けられる。 0.75
Original size of each image in the dataset is 1024×1024. データセットの各画像のオリジナルサイズは1024×1024である。 0.80
Sample images are shown in Figure 1. サンプル画像は図1に示します。 0.84
• CALC—Calcification: deposition of calcium carbonates around the tissues (34 images). •CALC - 石灰化:組織(34画像)の周りの炭酸カルシウムの沈着。 0.79
• CIRC—Well-defined/Circumscribed masses: irregular shaped masses present in breast (24 images). CIRC—Well-defined/Circums cribed masses:乳房に存在する不規則な形状の質量(24画像)。 0.59
• SPIC—Spiculated masses: poorly defined masses in the form of abnormality (24 images). • spic (spiculated mass): 異常(24画像)の形で未定義の質量。 0.80
• MISC—Other, ill-defined masses: miscellaneous abnormalities (18 images). • MISC—その他の不明確な質量:雑多な異常(18画像)。 0.68
• ARCH—Architectural Distortion: abnormal tissue arrangement causes architectural distortions in the breast tissues (12 images). ARCH-Architectural Distortion: 異常な組織配列は、乳房組織に構造的歪みを引き起こす(12の画像)。 0.72
• ASYM—Asymmetry: the breast tissue (21 images). • ASYM—非対称性:乳房組織(21画像)。 0.78
• NORM represents a normal image devoid of any abnormalities. • NORM は異常のない通常の画像を表す。 0.79
(189) increased mass density of (189) 質量密度の増加 0.81
322 cases of Mini-MIAS dataset classified into 7 ミニミアデータセットを7に分類した322例 0.77
TABLE 1 abnormalities. TABLE 1 異常。 0.72
Classes Number of Images 34 CALC 24 CIRC 24 SPIC MISC 18 12 ARCH ASYM 21 NORM 189 322 Total 画像のクラス番号 34 CALC 24 CIRC 24 SPIC MISC 18 12 ARCH ASYM 21 NORM 189 322 Total 0.83
4 These classes are further divided into the severity of the abnormality present among the tissues based on the mammogram scans. 4 これらのクラスは、マンモグラムスキャンに基づいて組織間で存在する異常の重症度にさらに分割される。 0.76
Severity is divided into two classes. 重大度は2つのクラスに分けられる。 0.63
• Benign • Malignant 322 cases of Mini-MIAS dataset classified into 3 classes •良性・悪性 mini-miasデータセットを3クラスに分類した322例 0.65
TABLE 2 Class Benign Malignant Normal Total 表2 Class Benign Malignant Normal Total 0.74
Number of Images 67 54 201 322 画像数67 54 201 322 0.56
Table 1 and 2 shows the exact number of image distribution among 7 classes of abnormality and 3 classes of severity respectively. 表1と表2はそれぞれ7種類の異常と3種類の重大度の間の画像分布の正確な数を示す。 0.77
For training and testing purposes the dataset is further divided into two subsets: training data and validation data. トレーニングとテストの目的でデータセットは、トレーニングデータと検証データという2つのサブセットにさらに分割される。 0.67
75% images from each class are allocated for training of the network while the remaining 25% are allocated for the validation of the trained network. 各クラスの75%の画像がネットワークのトレーニングに割り当てられ、残りの25%は訓練されたネットワークの検証に割り当てられます。 0.87
This makes 90 images for validation and 232 for training. これは、検証のための90イメージとトレーニングのための232になります。 0.57
From 322 images, 133 images are of cases with abnormalities present and 189 images are of normal cases. 322の画像から、133の画像が異常のケースであり、189の画像が通常の場合です。 0.62
Classes are divided in the following way as per the abnormality present. クラスは、現在ある異常に応じて以下の方法で分割される。 0.73
This splitting of dataset is totally random to ensure unbiased network training. このデータセットの分割は完全にランダムであり、バイアスのないネットワークトレーニングを保証する。 0.58
The classes are also balanced at through random selection in order to get unbiased classification for both the networks while training. トレーニング中に両方のネットワークの偏見のない分類を得るために、クラスはランダムな選択によってバランスを取ります。 0.69
(a) (b) (c) (a) (b) (c) 0.85
(d) (e) (f) (d) (e) (f) 0.85
Fig. 3: Sample images from the mini MIAS database. フィギュア。 3: ミニMIASデータベースからのサンプル画像。 0.58
(a) ARCH (architectural distortion), (b) ASYM (asymmetry), (c) CALC (calcification), (d) CIRC (circumscribed masses), (e) MISC (miscellaneous/ill-d efined masses), and (f) NORM (normal image devoid of masses). (a) ARCH(建築歪み)、(b) ASYM(非対称性)、(c) CALC(計算)、(d) CIRC(循環質量)、(e) MISC(多量/既定義質量)、および(f) NORM(質量のない正常画像)。 0.72
4 METHODOLOGY The flow diagram in Figure 4 illustrates our overall methodology. 4 MethodOLOGY 図4のフロー図は、当社の全体的な方法論を示しています。 0.59
英語(論文から抽出)日本語訳スコア
5 Fig. 4: Proposed system workflow diagram. 5 フィギュア。 4:提案されたシステムワークフロー図。 0.70
4.1 Segmentation The first step done is image segmentation based on the intensities of the mammogram images. 4.1 セグメンテーション 最初のステップはマンモグラフィ画像の強度に基づいた画像セグメンテーションである。 0.75
K-means algorithm is used with adaptive noise removal to obtain the best results of segmentation. K-meansアルゴリズムは適応ノイズ除去を用いてセグメンテーションの最良の結果を得る。 0.90
Image scan of mamogram is divided into portions and each portion is represented with a different gray level intensity. マモグラムの画像スキャンは部分に分割され、各部分は異なるグレーレベル強度で表現される。 0.78
These different intensities extracts the features of ROI in the image. これらの異なる強度は画像中のroiの特徴を抽出する。 0.69
The abnormality or tumor can easily be detected in the segmented image. セグメント化画像では、異常や腫瘍が容易に検出できる。 0.72
Figure 5 shows a few sample images obtained after segmentation. 図5は、セグメンテーション後に得られたサンプル画像を示している。 0.66
(a) (b) (c) (a) (b) (c) 0.85
(d) (e) (f) (d) (e) (f) 0.85
Fig. 5: Sample images after segmentation (a) ARCH, (b) ASYM, (c) CALC, (d) CIRC, (e) MISC, (f) NORM. フィギュア。 5: セグメント化後のサンプルイメージ (a) ARCH, (b) ASYM, (c) CALC, (d) CIRC, (e) MISC, (f) NORM。 0.64
4.2 Wavelet Transform Wavelet transforms of the image scans are done in the next step of our purposed network. 4.2 Wavelet Transform Wavelet Transform Wavelet Transforms of the image scans are done in the next step of our purposed network。 0.92
It works as the feature extraction for our CNN working at the end to classify the breast cancer classes. それは乳がんのクラスを分類するために最後に働く私達のCNNのための特徴の抽出として働きます。 0.60
Three image outputs are obtained from wavelet transform, vertical, horizontal and diagonal. ウェーブレット変換、垂直、水平、対角の3つの画像出力を得る。 0.75
Each containing the information of its respective component. それぞれのコンポーネントの情報を含む。 0.64
Three level wavelets transform as shown in Figure 6 is performed on the original image as well as on the segmented image taken from the section above. 図6に示す3つのレベルウェーブレット変換は、上記のセクションから取られた分割画像だけでなく、原画像にも行われる。 0.77
These images are then re-sized in the size of original image to be fed into the CNN. これらの画像は、CNNに入力される元の画像のサイズで再サイズされる。 0.65
4.3 Deep Neural Network (DNN) DNN is used at the end of our proposed sytem for the classification among selected classes. 4.3 ディープニューラルネットワーク(DNN) DNN は,選択したクラスの分類のために提案したサイテムの最後に使用される。 0.77
A hybrid system of two DNNs working together is proposed. 2つのdnnが連携するハイブリッドシステムを提案する。 0.73
The first DNN is Fig. 最初のDNNです。 フィギュア。 0.65
6: Sample images Level 1 Wavelet transform. 6: サンプル画像レベル1のウェーブレット変換。 0.87
(a) Diagonal, (b) Vertical, (c) Horizontal. (a)対角線、(b)垂直線、(c)水平線 0.74
trained on 7 classes of abnormalities and gives its output to the second DNN which then trains on the output of first DNN along with all the images. 7種類の異常を訓練し、第2のDNNに出力を与え、最初のDNNの出力をすべての画像と共に訓練する。 0.77
This is a novel approach towards this kind of problem which uses the knowledge of two DNNs for classification. これは、分類に2つのDNNの知識を使用するこの種の問題に対する新しいアプローチです。 0.84
Figure 7 shows the workflow of both the networks working together. 図7は、両方のネットワークが連携するワークフローを示しています。 0.73
Pre-trained networks are used with the transfer learning technique to train our networks. 事前学習ネットワークは、転送学習技術を用いてネットワークをトレーニングする。 0.77
The weights of first few layers of the pre-trained network are kept frozen and last three layers are replaced by new modified layers which are learnable. 事前学習されたネットワークの最初の数層の重みは凍結され、最後の3層は学習可能な新しい修正層に置き換えられる。 0.78
AlexNet, VGG, GoogleNet, ResNet50 networks are further trained on the dataset discussed. AlexNet、VGG、GoogleNet、ResNet50ネットワークは、議論されたデータセットでさらに訓練されます。 0.68
Fig. 7: Proposed hybrid system of two DNNs フィギュア。 7:2つのdnnのハイブリッドシステムの提案 0.60
In the training phase, hyper-parameters are to be set in order to achieve best results from the training on our dataset. トレーニングフェーズでは、データセットのトレーニングから最高の結果を得るために、ハイパーパラメータを設定する必要があります。 0.71
These parameters include optimizers, activation function, and learning rates. これらのパラメータには、オプティマイザ、アクティベーション関数、学習率が含まれる。 0.56
Furthermore, the number of epochs are defined before the training starts. さらに、トレーニングが始まる前にエポックの数を定義します。 0.69
The above-mentioned techniques, segmentation, and wavelet transforms, are used as data augmentation and fed to the network along with original images for the training 上記の技術、セグメンテーション、ウェーブレット変換をデータ拡張として使用し、トレーニング用のオリジナル画像とともにネットワークに供給する。 0.76
英語(論文から抽出)日本語訳スコア
purpose. Apart from this, the basic augmentation is also done which includes the rotation, translation, scaling, and sheer of the images with random values. 目的だ これとは別に、ランダムな値を持つ画像の回転、翻訳、スケーリング、およびシャーを含む基本的な拡張も行われます。 0.66
The dataset is split onto two parts: the training dataset and the validation dataset. データセットはトレーニングデータセットとバリデーションデータセットの2つの部分に分割される。 0.76
The training dataset is used to train the system by updating the weights of the layers added while the validation dataset serves as a feedback to the network after every few iterations and helps the system to improve and avoid overfitting. トレーニングデータセットは、追加したレイヤの重みを更新してシステムのトレーニングに使用され、バリデーションデータセットは、数回のイテレーション後にネットワークへのフィードバックとして機能し、システムがオーバーフィットを改善して回避するのに役立ちます。 0.68
6 TABLE 3 Optimizer Network Hyper-parameters Values 30 10 3e-4 ReLu SGDM 6 表3 最適化 ネットワークハイパーパラメータ値30 10 3e-4 ReLu SGDM 0.71
Parameters Max Epochs Mini Batch Size Initial Learning Rate Activation Function パラメータMax Epochs Mini Batch Size Initial Learning Rate Activation Function 0.84
5 RESULTS For the purpose of validation the results Receiver Operating Characteristic (ROC) curve is plotted for all the networks under study, it is actually a probability curve which is used as a performance measurement in a classification problems related to medical field [41]. 5回目。 研究中のすべてのネットワークで結果受信者動作特性(ROC)曲線がプロットされていることを検証するために、実際には医療分野に関連する分類問題で性能測定として使用される確率曲線[41]です。 0.64
For each class a separate ROC curve is plotted which have True Positive Rate (TPR) and False Positive Rate (FPR) on its x and y axis respectively [53]. 各クラスに対して、それぞれx軸とy軸に正の正の値(TPR)と偽の正の値(FPR)を有する別々のROC曲線をプロットする[53]。 0.86
Equation 2 and 3 below shows the formula to calculate TPR and FPR from the classification results. 式 2 と 3 は、分類結果から TPR と FPR を計算する公式を示している。 0.81
T P R = T rueP ositive T P R = T rueP ositive 0.85
T rueP ositive + F alseN egative T rueP ositive + F alseN egative 0.85
F P R = F alseP ositive F P R = F alseP ositive 0.85
T rueN egative + F alseP ositive T rueN egative + F alseP ositive 0.85
(2) (3) Area under the ROC curves (AUC) tells us how the network performed for the specific class. (2) (3) ROC曲線(AUC)の下の領域は、特定のクラスに対してネットワークがどのように実行されるかを示しています。 0.77
The greater the AUC, the better the classification . AUCが大きいほど、分類が良くなります。 0.74
In order to obtain the results, first the networks were trained using the proposed architecture on the original dataset using transfer learning with pre-trained networks. この結果を得るために,まず,事前学習ネットワークを用いた転送学習を用いて,元のデータセット上で提案したアーキテクチャを用いてネットワークを訓練した。 0.73
Then the same networks were trained on the images obtained after doing the segmentation and wavelet transform of the original images. そして、元の画像のセグメンテーションとウェーブレット変換を行い、得られた画像に対して同じネットワークを訓練した。 0.69
The results are shown in the form of ROC curves in the Fig 8,9 and 10 for the three classes which are Benign, Malignant and Normal respectively where dotted lines represent the curves of networks trained on only original images while solid lines show the curves for networks trained on segmented and wavelet transforms along with the original data. 画像のみに訓練されたネットワークの曲線を点線で表現し、セグメント化およびウェーブレット変換で訓練されたネットワークの曲線をソリッド線で示す3つのクラスについて、それぞれ良性、悪性、正常である3つのクラスについて、図8,9,10でroc曲線の形で示される。
訳抜け防止モード: 結果は、図8,9のroc曲線の形で示される。 3つのクラスに10個 良性で悪性で正常で 点線はオリジナル画像のみで訓練されたネットワークの曲線を表します ソリッドラインは、セグメンテッドおよびウェーブレット変換でトレーニングされたネットワークの曲線を元のデータと共に示す。
0.79
AUC of these classes are stated in the Table 4, 5 and 6. これらのクラスのAUCは表4、5、6に記載されている。 0.64
Fig. 8: ROC curve for Benign class after classification フィギュア。 8: 良性クラスにおける分類後のROC曲線 0.61
Fig. 9: ROC curve for Malignant class after classification フィギュア。 9: 分類後の悪性度に対するROC曲線 0.64
Fig. 10: ROC curve for Normal class after classification フィギュア。 10: 普通科における分類後のROC曲線 0.61
英語(論文から抽出)日本語訳スコア
TABLE 4 AUCs of Benign class after classification Benign Class AUC 表4 Benign Class AUC 分類後の Benign Class の AUC について 0.72
Transfer Learning Network 転校学習 ネットワーク 0.75
Original Data Data after Segmentation and Wavelet transform セグメンテーションとウェーブレット変換後のオリジナルデータデータ 0.81
AUCs of Malignant class after classification 分類後の悪性度のAUC 0.72
TABLE 5 Malignant Class AUC 表5 悪性クラスAUC 0.64
Original Data Data after Segmentation and Wavelet transform セグメンテーションとウェーブレット変換後のオリジナルデータデータ 0.81
VGG16 GoogleNet AlexNet ResNet50 VGG16 GoogleNet AlexNet ResNet50 0.84
Transfer Learning Network 転校学習 ネットワーク 0.75
VGG16 GoogleNet AlexNet ResNet50 VGG16 GoogleNet AlexNet ResNet50 0.84
0.800 0.685 0.55 0.659 0.800 0.685 0.55 0.659 0.45
0.620 0.707 0.573 0.585 0.620 0.707 0.573 0.585 0.45
0.943 0.957 0.959 0.966 0.943 0.957 0.959 0.966 0.45
0.930 0.954 0.964 0.965 0.930 0.954 0.964 0.965 0.45
TABLE 6 AUCs of Normal class after classification Malignant Class AUC 表6 悪性クラスAUCの分類後の正常クラスのAUC 0.72
Transfer Learning Network 転校学習 ネットワーク 0.75
Original Data Data after Segmentation and Wavelet transform セグメンテーションとウェーブレット変換後のオリジナルデータデータ 0.81
0964 0.965 0.979 0.985 0964 0.965 0.979 0.985 0.53
0.796 0.712 0.665 0.665 0.796 0.712 0.665 0.665 0.45
VGG16 GoogleNet AlexNet ResNet50 We can see from the above results consisting of ROC and AUC obtained from different transfer learning models that models trained on dataset consisting of wavelet transforms and segmented images performed significantly better on all the networks. VGG16 GoogleNet AlexNet ResNet50 上記の結果から、ウェーブレット変換とセグメンテーションされた画像からなるデータセットでトレーニングされたモデルの異なる転送学習モデルから得られたROCとAUCによる結果が、すべてのネットワークで大幅に改善されたことが分かる。 0.72
Furthermore we also deduced that ResNet50 performs much better than than the other models under study while using transfer learning. さらに、ResNet50は、転送学習を使用している間、研究中の他のモデルよりもはるかに優れた性能を発揮します。
訳抜け防止モード: さらに私たちは resnet50は、転送学習を用いて研究中の他のモデルよりもはるかに優れた性能を発揮する。
0.69
5.1 Comparison with related work In Table 7 we have provided overview of few related works and their performances on the Mini-MIAS dataset. 5.1 関連作業との比較 表7では、Mini-MIASデータセットに関するいくつかの関連作業とそのパフォーマンスの概要を紹介した。 0.72
However due to the variance in metrics used and the number of classes, a detailed comparison with the methods of other works is unfeasible. しかし、使用されるメトリクスのばらつきとクラス数のため、他の作品のメソッドとの詳細な比較は不可能である。 0.73
Most of the previous studies have done two class classification to mark the presence or absence of cancer tissues and have acquired some promising results. これまでの研究のほとんどは、がん組織の有無を示すために2つの分類を行い、有望な結果を得た。 0.61
[50]. Comparison of classification with related work based on [50]. 関連作業の分類と分類の比較 0.71
TABLE 7 AUC. TABLE 7 AUC所属。 0.82
Paper Rouhi et al (2015) [52] Valarmathie (2016) [42] Rabidas (2016) [43] Jaffar (2017) [51] Proposed Method Paper Rouhi et al (2015) [52] Valarmathie (2016) [42] Rabidas (2016) [43] Jaffar (2017) [51] Proposed Method 0.85
Method SNN Fuzzy + ANN DRLBP, DRLTP CNN (COM) Wavelet Transform Segmentation Transfer Learning 方法 SNN Fuzzy + ANN DRLBP, DRLTP CNN (COM) Wavelet Transform Segmentation Transfer Learning 0.81
Dataset Mini-MIAS, DDSM Mini-MIAS Mini-MIAS Mini-MIAS, DDSM Dataset Mini-MIAS, DDSM Mini-MIAS Mini-MIAS, DDSM 0.77
Mini-MIAS AUC 0.92 (Binary) 0.99 (Binary) 0.98 (Binary) 0.92 (Binary) (3 Class) 0.97 Benign 0.97 Malignant 0.99 Normal ミニMIAS AUC 0.92 (Binary) 0.99 (Binary) 0.98 (Binary) 0.92 (Binary) 3-97 Benignant 0.97 Malignant 0.99 Normal 0.78
7 In a comparison of the best results through our method with those found in related work, it is clear that our method is outstanding for all three classes with balanced values. 7)本手法と関連する研究結果との比較では,バランスの取れた3つのクラスすべてにおいて,本手法が優れていることは明らかである。 0.81
6 CONCLUSIONS To summarize, this study effectively implemented the CNN on mammograms for the detection of abnormal masses in breasts which cause cancer. 6 ConCLUSIONS この研究は乳がんの原因となる乳腺の異常な腫瘤を検出するためにマンモグラムにCNNを効果的に導入した。 0.77
Different CNN architectures are used to get the state-of-the-art accuracies on the mini-MIAS dataset. 異なるCNNアーキテクチャを使用して、mini-MIASデータセットの最先端のアキュラシーを取得する。 0.51
Hence, the study shows the significance of data augmentation before feeding the images to the network for training. そこで本研究では,画像がネットワークに送られてトレーニングを行う前に,データ拡張の重要性を示す。 0.72
Segmentation and wavelet transforms help the network in extracting the important features from the mammogram. セグメンテーションとウェーブレット変換は、ネットワークがマンモグラムから重要な特徴を抽出するのに役立ちます。 0.60
The study’s main contribution, that is the combination of transfer learning along with wavelet transform, significantly improves the results by using segmentation and wavelet transforms as pre-processing for the images before the training process starts. この研究の主な貢献、すなわち転送学習とウェーブレット変換の組み合わせは、トレーニングプロセスが始まる前に画像の前処理としてセグメンテーションとウェーブレット変換を使用することで、結果を大幅に改善する。 0.83
The combination of segmentation and wavelet transform improves the overall efficiency of CNN by helping in extracting features meanwhile the unique hybrid system that uses transfer learning alongside wavelet transforms and segmentation greatly affects the resulting ROC curves positively. セグメンテーションとウェーブレット変換の組み合わせはCNNの全体的な効率を向上させる一方、ウェーブレット変換とセグメンテーションと一緒にトランスファーラーニングを使用するユニークなハイブリッドシステムは、結果として生じるROC曲線に大きく影響します。 0.68
Segmentation gives the information about edges of tumorous regions while wavelet transform helps in localization in frequency domain which then gives the information of tumorous regions in the form of contours in images. セグメント化は腫瘍領域の端に関する情報を与え、ウェーブレット変換は周波数領域の局在化を助け、その後画像の輪郭の形で腫瘍領域の情報を与える。 0.75
The betterment in results is clear considering the AUCROC curve achieves is greater than 0.95 on all three classes which is considerably good considering three-class classifications have not been measured using AUC-ROC before. AUCROC曲線の達成率が0.95以上であることを考えると,これまでにAUC-ROCを用いた3クラス分類が測定されていないことを考えると,かなり良好な結果が得られている。 0.72
The dataset utilized for this paper was fairly small and yielded favorable results, therefore the system can be tested on bigger datasets comprising of a more huge number of elements to further test its accuracy. 本論文で用いたデータセットは比較的小さく,良好な結果が得られたため,さらに多数の要素からなる大規模データセット上でテストし,精度をより高めることができる。 0.87
One estimated hurdle could be the application of transfer learning to bigger datasets however that poses a suitable foundation for future work. しかし、大きなデータセットへの転送学習の適用は、将来の作業に適した基盤となると見積もられている。 0.74
REFERENCES [1] Jiao, Z., Gao, X., Wang, Y., & Li, J. REFERENCES [1] Jiao, Z., Gao, X., Wang, Y., & Li, J。 0.82
2016. A deep feature based framework for breast masses classification. 2016. 乳房塊分類のための深い特徴ベースのフレームワーク。 0.83
Neurocomputing, 197: 221-231. 神経計算、197: 221-231。 0.62
[2] Doi, Kunio. “Computer-aided diagnosis in medical imaging: historical review, current status and future potential.” Computerized medical imaging and graphics 31.4-5 (2007): 198-211. [2]土井国雄。 医用画像におけるコンピュータ支援診断 : 歴史的レビュー, 現状, 将来の可能性」コンピュータ化医用画像とグラフィック31.4-5(2007年)198-211 0.58
[3] X. Zhang and X. Gao, “Twin support vector machines and subspace learning methods for microcalcification clusters detection,” Engineering Applications of Artificial Intelligence, vol. [3] x. zhang and x. gao, “twin support vector machines and subspace learning methods for microcalcification clusters detection”. 人工知能の工学的応用, vol. 。 0.82
25, no. 5, pp. 25だ 5, pp。 0.59
1062 – 1072, 2012. 1062 – 1072, 2012. 0.85
[4] Cheng J, Ni D, Chou Y, et al Computer-aided diagnosis with deep learning architecture: applications to breast lesions in us images and pulmonary nodules in CT scans. 深層学習アーキテクチャを備えたCheng J, Ni D, Chou Y, et al Computer-aided diagnosis: CTスキャンにおける私たちの画像および肺結節の乳房病変への応用。 0.85
Sci Rep. 2016;6:24454. Sci Rep. 2016;6:24454。 0.81
[5] Wang J, Yang X, Cai H, et al Discrimination of breast cancer with microcalcifications on mammography by deep learning. 5] Wang J, Yang X, Cai H, et al 乳癌の深層学習によるマンモグラフィの微細石灰化による識別。 0.72
Sci Rep. 2016;6:27327. Sci Rep. 2016;6:27327。 0.81
[6] A. Krizhevsky, I. Sutskever, and G. E. Hinton, “Imagenet classification with deep convolutional neural networks,” in Advances in Neural Information Processing Systems 25, F. Pereira, C. J. C. Burges, L. Bottou, and K. Q. Weinberger, Eds. 6] A. Krizhevsky, I. Sutskever, G. E. Hinton, "Imagenet classification with Deep Convolutional neural Network" in Advances in Neural Information Processing Systems 25, F. Pereira, C.J.C. Burges, L. Bottou, K. Q. Weinberger, Eds. 0.93
Curran Associates, Inc., 2012, pp. Curran Associates, Inc., 2012, pp。 0.80
1097–1105. 1097–1105. 0.71
[7] K. Simonyan and A. Zisserman, “Very deep convolutional networks for large-scale image recognition,” CoRR, vol. CoRR, vol.[7] K. Simonyan, A. Zisserman, “大規模画像認識のための非常に深い畳み込みネットワーク”。 0.85
abs/1409.1556, 2014. abs/1409.1556, 2014 0.69
英語(論文から抽出)日本語訳スコア
[8] C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, and A. Rabinovich, “Going deeper with convolutions,” in Computer Vision and Pattern Recognition (CVPR), 2015. 8] C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, A. Rabinovich, “Going deep with convolutions” in Computer Vision and Pattern Recognition (CVPR) 2015年。 0.92
[9] K. He, X. Zhang, S. Ren, and J. [9]K.He,X.Zhang,S. Ren,J. 0.80
Sun, “Deep residual learning for image recognition,” CoRR, vol. Sun, “Deep residual learning for image Recognition”, CoRR, vol。 0.72
abs/1512.03385, 2015. abs/1512.03385, 2015 0.69
[10] Suckling, J. [10] Suckling, J。 0.78
1996. The mammographic image analysis society digital mammogram database. 1996. マンモグラフィ画像解析社会デジタルマンモグラフィデータベース 0.68
[11] J. Tang, R. M. Rangayyan, J. Xu, I. E. Naqa, and Y. Yang, “Computeraided detection and diagnosis of breast cancer with mammography: Recent advances,” IEEE Transactions on Information Technology in Biomedicine, vol. J. Tang, R. M. Rangayyan, J. Xu, I. E. Naqa, Y. Yang, “Computeraided detection and diagnosis of breast cancer with mammography: recent progresss, IEEE Transactions on Information Technology in Biomedicine, Vol. 0.84
13, no. 2, pp. 13、いいえ。 2、p。 0.66
236–251, March 2009. 236-251, 2009年3月。 0.55
[12] O. Russakovsky, J. Deng, H. Su, J. Krause, S. Satheesh, S. Ma, Z. Huang, A. Karpathy, A. Khosla, M. Bernstein, A. C. Berg, and L. Fei-Fei, “ImageNet Large Scale Visual Recognition Challenge,” nternational Journal of Computer Vision (IJCV), vol. 12] O. Russakovsky, J. Deng, H. Su, J. Krause, S. Satheesh, S. Ma, Z. Huang, A. Karpathy, A. Khosla, M. Bernstein, A.C. Berg, L. Fei-Fei, “ImageNet Large Scale Visual Recognition Challenge”, nternational Journal of Computer Vision (IJCV), vol。 0.98
115, no. 3, pp. 115年だ 3、p。 0.53
11–252, 2015. 11–252, 2015. 0.84
[13] Singh, Garima, DikendraVerma Pushpa Koranga, and G. E. H. U. 十三 Singh, Garima, DikendraVerma Pushpa Koranga, G.E.H.U. 0.83
Tech Scholar. ”Application of Wavelet Transform on Images: A Review.” 3 [14] Mirzaalian, Hengameh, et al ”Various Applying of Wavelet Transform in Digital Mammograms for Detecting Masses and Microcalsifications.” MVA. 技術学者。 画像上のウェーブレット変換の適用:レビュー:」 3 [14] Mirzaalian、Hengameh、および「質量および微小石灰化を検出するためのデジタルマンモグラムにおけるウェーブレット変換の多様な適用」 MVA。 0.69
2007. 4 [15] Pan, Sinno Jialin, and Qiang Yang. 2007. 4 [15] パン、Sinno Jialin、およびQiang Yang。 0.76
”A survey on transfer learning.” IEEE Transactions on knowledge and data engineering 22.10 (2009): 1345-1359. IEEE Transactions on knowledge and data engineering 22.10 (2009): 1345-1359。 0.58
5 [16] Geras, K. J., Wolfson, S., Shen, Y., Wu, N., Kim, S., Kim, E., ... Cho, K. (2017). 5 [16] Geras, K.J., Wolfson, S., Shen, Y., Wu, N., Kim, S., Kim, E., ... Cho, K. (2017)。 0.93
High-resolution breast cancer screening with multi-view deep convolutional neural networks. 多視点深部畳み込みニューラルネットワークを用いた高分解能乳癌検診 0.76
arXiv preprint arXiv:1703.07047. arXiv preprint arXiv:1703.07047。 0.63
[17] Strickland, Robin N., and Hee Il Hahn. 17]Strickland、Robin N.、Hee Il Hahn。 0.66
”Wavelet transforms for detecting microcalcifications in mammograms.” IEEE Transactions on Medical Imaging 15.2 (1996): 218-229. IEEE Transactions on Medical Imaging 15.2 (1996): 218-229. “Wavelet transforms for detect microcalcifications in mammograms.” 0.95
[18] Aarthy, S. L., and S. Prabu. 18] Aarthy、S.L.、S.Prabu。 0.68
”An approach for detecting breast cancer using wavelet transforms.” Indian Journal of Science and Technology 8.26 (2015): 1-7. ウェーブレット変換を用いた乳がんの検出方法」インド科学技術ジャーナル8.26(2015):1-7。 0.66
[19] Mehra, Rajesh. [19]Mehra, Rajesh。 0.72
”Breast cancer histology images classification: Training from scratch or transfer learning?.” ICT Express 4.4 (2018): 247-254. 画像分類:scratch or transfer learning?” ict express 4.4 (2018): 247-254。
訳抜け防止モード: 乳癌組織像の分類 : スクラッチ・トランスファー・ラーニングからのトレーニング?」 ICT Express 4.4 ( 2018 ) : 247 - 254 .
0.77
[20] Tan, Chuanqi, et al ”A survey on deep transfer learning.” International Conference on Artificial Neural Networks. [20]Tan, Chuanqi, et al ”A Survey on Deep Transfer Learning.”. International Conference on Artificial Neural Networks 0.83
Springer, Cham, 2018. Springer, Cham, 2018年。 0.90
[21] Singh, Ajay Kumar, Shamik Tiwari, and V. P. Shukla. 21] Singh、Ajay Kumar、Shamik Tiwari、V.P. Shukla。 0.73
”Wavelet based multi class image classification using neural network.” International Journal of Computer Applications 37.4 (2012): 21-25. International Journal of Computer Applications 37.4 (2012): 21-25. “Wavelet based multi class image classification using neural network.” (英語) 0.85
[22] Patidar, Dharmendra, et al ”Image Classification by Combining Wavelet Transform and Neural Network.” International Journal of Advanced Computer Research 3.4 (2013): 106. 1522] Patidar, Dharmendra, et al ” Image Classification by Combining Wavelet Transform and Neural Network.” International Journal of Advanced Computer Research 3.4 (2013): 106。 0.83
[23] Aggarwal, Preeti, et al ”Role of segmentation in medical imaging: a comparative study.” International Journal of Computer Applications 975 (2011): 8887. 23]aggarwal, preeti, et al, “role of segmentation in medical imaging: a comparison study.” international journal of computer applications 975 (2011): 8887。 0.81
[24] Pham, Dzung L., Chenyang Xu, and Jerry L. Prince. [24]Pham、Dzung L.、Chenyang Xu、Jerry L. Prince。 0.70
”Current methods in medical image segmentation.” Annual review of biomedical engineering 2.1 (2000): 315-337. 医療画像セグメンテーションの現状」 バイオメディカルエンジニアリング 2.1 (2000): 315-337 年次レビュー 0.70
[25] Charan, Saira, Muhammad Jaleed Khan, and Khurram Khurshid. [25]Charan、Saira、Muhammad Jaleed Khan、Khurram Khurshid。 0.66
”Breast cancer detection in mammograms using convolutional neural network.” 2018 International Conference on Computing, Mathematics and Engineering Technologies (iCoMET). 2018 International Conference on Computing, Mathematics and Engineering Technologies (iCoMET) が開催されました。 0.32
IEEE, 2018. IEEE、2018年。 0.88
[26] Chen, Dar-Ren, et al ”Diagnosis of breast tumors with sonographic texture analysis using wavelet transform and neural networks.” Ultrasound in medicine & biology 28.10 (2002): 1301-1310. 医学・生物学28.10(2002):1301-131 0 超音波:[26] Chen, Dar-Ren, et 「ウェーブレット変換とニューラルネットワークを用いた超音波テクスチャ解析による乳癌の診断」。 0.79
[27] Mencattini, Arianna, et al ”Mammographic images enhancement and denoising for breast cancer detection using dyadic wavelet processing.” IEEE transactions on instrumentation and measurement 57.7 (2008): 1422-1430. 1727] Mencattini, Arianna, et al “Mammographic images enhancement and denoising for breast cancer detection using dyadic wavelet processing.” IEEE transaction on instrumentation and Measurement 57.7 (2008): 1422-1430。 0.88
[28] Eltoukhy, Mohamed Meselhy, Ibrahima Faye, and Brahim Belhaouari Samir. [28] Eltoukhy、Mohamed Meselhy、Ibrahima Faye、Brahim Belhaouari Samir。 0.66
”Breast cancer diagnosis in digital mammogram using multiscale curvelet transform.” Computerized medical imaging and graphics 34.4 (2010): 269-276. マルチスケール・カーブレット変換を用いた乳腺癌診断」 コンピュータ診断34.4 (2010): 269-276。 0.69
[29] Ferreira, Cristiane Bastos Rocha, and Dibio Leandro Borges. 29] Ferreira、Cristiane Bastos Rocha、Dibio Leandro Borges。 0.61
”Analysis of mammogram classification using a wavelet transform decomposition.” Pattern Recognition Letters 24.7 (2003): 973-982. ウェーブレット変換分解によるマンモグラム分類の解析」パターン認識文字24.7 (2003): 973-982 0.80
[30] Rashed, Essam A., Ismail A. Ismail, and Sherif I. Zaki. 30] Rashed、Essam A.、Ismail A. Ismail、Sherif I. Zaki。 0.74
”Multiresolution mammogram analysis in multilevel decomposition.” Pattern Recognition Letters 28.2 (2007): 286-292. マルチレベル分解におけるマルチレゾリューションマンモグラム解析」パターン認識文字28.2 (2007): 286-292 0.78
8 [31] Perez, Luis, and Jason Wang. 8[31] Perez、Luis、Jason Wang。 0.67
”The effectiveness of data augmentation in image classification using deep learning.” arXiv preprint arXiv:1712.04621 (2017). arXiv preprint arXiv:1712.04621 (2017)。
訳抜け防止モード: 深層学習による画像分類におけるデータ拡張の有効性」 arXiv preprint arXiv:1712.04621 (2017)。
0.82
[32] Xu, Yan, et al ”Improved relation classification by deep recurrent neural networks with data augmentation.” arXiv preprint arXiv:1601.03651 (2016). arXiv preprint arXiv:1601.03651 (2016)
訳抜け防止モード: [32 ] Xu, Yan, et al ”データ拡張を伴うディープリカレントニューラルネットワークによる関係分類の改善。 arXiv preprint arXiv:1601.03651 (2016)。
0.87
[33] Roth, Holger R., et al ”Anatomy-specific classification of medical images using deep convolutional nets.” arXiv preprint arXiv:1504.04003 (2015). ArXiv preprint arXiv:1504.04003 (2015) [33] Roth, Holger R., et al "Anatomy-specific classification of medical images using Deep Convolutional nets." arXiv preprint arXiv:1504.04003 (2015)
訳抜け防止モード: [33 ]Roth, Holger R., et al ”解剖学 - 深層畳み込み網を用いた医用画像の特定分類。 arXiv preprint arXiv:1504.04003 (2015)。
0.82
[34] Chen, Chang Wen, Jiebo Luo, and Kevin J. Parker. [34] Chen、Chang Wen、Jiebo Luo、Kevin J. Parker。 0.69
”Image segmentation via adaptive K-mean clustering and knowledge-based morphological operations with biomedical applications.” IEEE transactions on image processing 7.12 (1998): 1673-1683. アダプティブK平均クラスタリングによる画像セグメンテーションと生物医学的応用による知識ベースの形態学的操作」 画像処理に関するIEEEトランザクション 7.12 (1998): 1673-1683。 0.65
[35] Zheng, Bichen, Sang Won Yoon, and Sarah S. Lam. 35] zheng、bichen、sangがyoon、sarah s. lamに勝利した。 0.63
”Breast cancer diagnosis based on feature extraction using a hybrid of K-means and support vector machine algorithms.” Expert Systems with Applications 41.4 (2014): 1476-1482. アプリケーション41.4 (2014): 1476-1482 のエキスパートシステムは,k-means と support vector machine アルゴリズムのハイブリッドを用いた特徴抽出に基づく乳がん診断を行う。 0.84
[36] Qi, Hairong, and Jonathan F. Head. [36] Qi、Hereong、およびJonathan F. Head。 0.76
”Asymmetry analysis using automatic segmentation and classification for breast cancer detection in thermograms.” 2001 Conference Proceedings of the 23rd Annual International Conference of the IEEE Engineering in Medicine and Biology Society. 2001年第23回IEEE国際医学・生物学学会国際会議(IEEE International Conference of the International Conference in the Medicine and Biology Society)に参加して
訳抜け防止モード: サーモグラムによる乳癌検診における"自動分割と分類を用いた非対称性解析" 2001年第23回ieeeエンジニアリング・イン・メディカル・バイオロジー学会国際会議参加報告
0.79
Vol. 3. IEEE, 2001. Vol。 3. 2001年、IEEE。 0.79
[37] Wu, Yuzheng, et al ”Artificial neural networks in mammography: application to decision making in the diagnosis of breast cancer.” Radiology 187.1 (1993): 81-87. [37] wu, yuzheng, et al 【マンモグラフィにおける人工神経ネットワーク:乳癌の診断における意思決定への応用】ラジオロジー187.1(1993):81-87】 0.86
[38] Spanhol, Fabio Alexandre, et al ”Breast cancer histopathological image classification using convolutional neural networks.” 2016 international joint conference on neural networks (IJCNN). [38] spanhol, fabio alexandre, et al ”breast cancer histopathological image classification using convolutional neural networks” 2016 international joint conference on neural networks (ijcnn) 0.76
IEEE, 2016. 2016年、IEEE。 0.61
[39] L´evy, Daniel, and Arzav Jain. 39] L ́evy, Daniel, and Arzav Jain. 0.90
”Breast mass classification from mammograms using deep convolutional neural networks.” arXiv preprint arXiv:1612.00542 (2016). arXiv preprint arXiv:1612.00542 (2016)。 0.33
[40] Unser, Michael, and Akram Aldroubi. [40]Unser、Michael、Akram Aldroubi。 0.61
”A review of wavelets in biomedical applications.” Proceedings of the IEEE 84.4 (1996): 626638. バイオメディカル応用におけるウェーブレットの検討」IEEE84.4(1996年):626638。 0.77
[41] Hajian-Tilaki, Karimollah. 41] Hajian-Tilaki, Karimollah。 0.87
”Receiver operating characteristic (ROC) curve analysis for medical diagnostic test evaluation.” Caspian journal of internal medicine 4.2 (2013): 627. 内科4.2(2013):627)のカスピアンジャーナル「医療診断試験評価のための受信者動作特性(ROC)曲線解析」。 0.85
[42] Valarmathie, P., V. Sivakrithika, and K. Dinakaran. [42] Valarmathie、P.、V. Sivakrithika、K. Dinakaran。 0.81
”Classification of mammogram masses using selected texture, shape and margin features with multilayer perceptron classifier.” (2016). 多層パーセプトロン分類器を用いた選択したテクスチャ, 形状, マージン特徴を用いたマンモグラムの分類 (2016) 0.65
[43] Rabidas, Rinku, et al ”Benign-malignant mass classification in mammogram using edge weighted local texture features.” Medical Imaging 2016: Computer-Aided Diagnosis. 43] Rabidas, Rinku, et al “エッジ重み付き局所テクスチャ機能を用いたマンモグラムの良性悪性質量分類” Medical Imaging 2016: Computer-Aided diagnosis。 0.83
Vol. 9785. International Society for Optics and Photonics, 2016. Vol。 9785. International Society for Optics and Photonics, 2016 (英語) 0.83
[44] Nascimento, Carmina Dessana Lima, et al ”Breast tumor classification in ultrasound images using support vector machines and neural networks.” Research on Biomedical Engineering 32.3 (2016): 283-292. Nascimento, Carmina Dessana Lima, et al al ”Beast tumor classification in audio images using support vector machine and neural network.”. Research on Biomedical Engineering 32.3 (2016): 283-292。 0.85
[45] Patel, Bhagwati Charan, and G. R. Sinha. [45] Patel、Bhagwati Charan、G.R. Sinha。 0.66
”An adaptive K-means clustering algorithm for breast image segmentation.” International Journal of Computer Applications 10.4 (2010): 35-38. a adaptive k-means clustering algorithm for breast image segmentation.” international journal of computer applications 10.4 (2010): 35-38。 0.87
[46] Cahoon, Tobias Christian, Melanie A. Sutton, and James C. Bezdek. 46] Cahoon、Tobias Christian、Melanie A. Sutton、James C. Bezdek。 0.70
”Breast cancer detection using image processing techniques.” Ninth IEEE International Conference on Fuzzy Systems. 第9回IEEE国際ファジィシステム会議「画像処理技術を用いた乳がんの検出」 0.75
FUZZ-IEEE 2000 (Cat. FUZZ-IEEE 2000 (Cat。 0.84
No. 00CH37063). いいえ。 00CH37063)。 0.75
Vol. 2. IEEE, 2000. Vol。 2. IEEE、2000年。 0.85
[47] Chougrad, Hiba, Hamid Zouaki, and Omar Alheyane. 47] Chougrad、Hiba、Hamid Zouaki、およびOmar Alheyane。 0.66
”Deep convolutional neural networks for breast cancer screening.” Computer methods and programs in biomedicine 157 (2018): 19-30. 乳がん検診のための深い畳み込みニューラルネットワーク」バイオ医薬品157(2018):19〜30のコンピュータ方法とプログラム。 0.59
[48] Jiang, Fan, et al ”Breast mass lesion classification in mammograms by transfer learning.” Proceedings of the 5th international conference on bioinformatics and computational biology. 第5回バイオインフォマティクス・計算生物学国際会議の報告
訳抜け防止モード: [48 ]Jian, Fan, et al ]「移動学習によるマンモグラムにおける乳房腫瘤の分類」 第5回バイオインフォマティクス・計算生物学国際会議の開催報告
0.76
ACM, 2017. 2017年、ACM。 0.87
[49] Huynh, Benjamin Q., Hui Li, and Maryellen L. Giger. [49]Huynh、Benjamin Q.、Hui Li、Maryellen L. Giger。 0.71
”Digital mammographic tumor classification using transfer learning from deep convolutional neural networks.” Journal of Medical Imaging 3.3 (2016): 034501. 深部畳み込みニューラルネットワークからの転送学習を用いたデジタルマンモグラフィ腫瘍分類」医学画像3.3(2016):034501。 0.76
[50] Murtaza, Ghulam, et al ”Deep learning-based breast cancer classification through medical imaging modalities: state-of-the-art and research challenges.” Artificial Intelligence Review (2019): 1-66. 50] Murtaza, Ghulam, et al ”Deep Learning-based breast cancer classification through medical imaging modalities: latest-of-art and research challenges.” Artificial Intelligence Review (2019): 1-66。 0.91
[51] Jaffar, M. Arfan. [51] Jaffar、M. Arfan。 0.88
”Deep learning based computer aided diagnosis system for breast mammograms.” Int J Adv Comput Sci Appl 7.8 (2017): 286-90. Int J Adv Comput Sci Appl 7.8 (2017): 286-90。
訳抜け防止モード: 深層学習による乳房乳房x線画像診断支援システム int j adv comput sci appl 7.8 (2017) : 286 - 90。
0.77
[52] Rouhi, Rahimeh, et al ”Benign and malignant breast tumors classification based on region growing and CNN segmentation.” Expert Systems with Applications 42.3 (2015): 990-1002. 52] Rouhi, Rahimeh, et al “Benign and malignant breast tumors classification based on region growth and CNN segmentation.” Expert Systems with Applications 42.3 (2015): 990-1002。 0.91
[53] Fawcett, Tom. 53] Fawcett、トム。 0.65
”An introduction to ROC analysis.” Pattern recognition letters 27.8 (2006): 861-874. 「ROC解析入門」パターン認識文字27.8(2006):881-874。 0.77
英語(論文から抽出)日本語訳スコア
Ahmed Rasheed earned his Bachelor’s degree in Electrical Engineering, majoring in Electrical Power, from Air University Islamabad, Pakistan. Ahmed Rasheedは、パキスタンのAir University Islamicabadから電力を専攻する電気工学の学士号を取得しました。 0.71
He is currently an Electrical Engineering Master’s student majoring in Digital System and Signal Processing, at School of Electrical Engineering and Computer Science (SEECS) at the National University of Sciences and Technology (NUST) Islamabad, Pakistan. 現在はパキスタンのイスラマバードにある国立科学技術大学(nust)の電気工学・計算機科学大学院(seecs)で電子工学の修士号を取得し、デジタルシステムと信号処理を専攻している。 0.71
He is also serving as a Research Assistant at the laboratory of Adaptive Signal Processing (ASP) at SEECS, specializing in handling machine learning, deep learning, time series prediction and biomedical image processing tasks. 彼はまた、seecsのadaptive signal processing (asp)研究所で研究助手を務め、機械学習、ディープラーニング、時系列予測、生物医学的な画像処理タスクの処理を専門としている。 0.74
9 Muhammad Bilal is Associate Professor of Big Data and Artificial Intelligence (AI) at Big Data Laboratory, University of the West of England (UWE), Bristol. 9 Muhammad Bilal氏は、ブリストル、ウェスト・オブ・イングランド大学(UWE)のBig Data LaboratoryのBig Data and Artificial Intelligence(AI)准教授です。 0.81
He holds a PhD in Big Data Analytics from UWE, Bristol. 彼はブリストルのUWEからビッグデータ分析の博士号を取得している。 0.63
He has multidisciplinary research interests that span across Intelligent Systems, Internet of Things (IoTs), AI Product Design, Digital Health, Visual Analytics, GIS and Semantic technologies. 彼は、Intelligent Systems、Internet of Things(IoT)、AI Product Design、Digital Health、Visual Analytics、GIS、Semanticテクノロジにまたがる、多分野の研究上の関心を持っている。 0.77
Dr Bilal has led the development of various enterprisegrade software projects ranging from financials to healthcare. bilal博士は、金融から医療まで、さまざまなエンタープライズグレードのソフトウェアプロジェクトの開発を率いてきた。 0.65
He has vast expertise in collaborative research design and execution. 彼は共同研究の設計と実行に精通している。 0.66
So far, he has completed research and development projects of £3.7 Million at Big Data Lab in collaboration with leading UK businesses. これまでのところ、彼はbig data labでイギリスの主要企業と協力して370万ポンドの研究開発プロジェクトを完了した。 0.75
He has also authored more than 50 research articles at high-impact journals and international conferences. また、50以上の学術論文をハイインパクトジャーナルや国際会議で執筆している。 0.66
Muhammad Shahzad Younis received the bachelor’s degree from National University of Sciences and Technology, Islamabad, Pakistan, in 2002, the master’s degree from the University of Engineering and Technology, Taxila, Pakistan, in 2005, and the PhD degree from University Technology PETRONAS, Perak, Malaysia in 2009, respectively. Muhammad Shahzad Younisは、2002年にパキスタンのイスラームバードにある国立科学技術大学から学士号、2005年にタチラ、パキスタンのタチラ工科大学から修士号、および2009年にマレーシアのペラックにあるUniversity Technology PETRONASから博士号を取得しました。 0.60
Before joining National University of Sciences and Technology (NUST), he was Assistant Manager at a research and development organization named AERO where he worked on different signal processing and embedded system design applications. national university of sciences and technology(nust)に入る前、彼はaeroという研究開発組織でアシスタントマネージャーを務め、様々な信号処理と組み込みシステム設計のアプリケーションの開発に携わった。 0.75
He is currently working as an Assistant professor in the Department of Electrical Engineering in School of Electrical Engineering and Computer Science (SEECS)-NUST. 現在、電気工学・コンピュータ科学学校(SEECS)-NUSTの電気工学科の助教授として働いています。 0.70
He has published more than 25 papers in domestic and international journals and conferences. 国内外の雑誌や会議に25冊以上の論文を発表している。 0.67
His research interests include Statistical Signal Processing, Adaptive Filters, Convex Optimization Biomedical signal processing, wireless communication modelling and digital signal processing. 彼の研究分野は、統計信号処理、適応フィルタ、凸最適化バイオメディカル信号処理、無線通信モデリング、デジタル信号処理である。
訳抜け防止モード: 彼の研究分野は、統計信号処理、適応フィルタ、凸最適化バイオメディカル信号処理などである。 無線通信モデリングとディジタル信号処理
0.79
Junaid Qadir (SM’ 14) completed his BS in Electrical Engineering from UET, Lahore, Pakistan and his PhD from University of New South Wales, Australia in 2008. Junaid Qadir (SM’ 14)は2008年にUET、パキスタンのラホールから電気工学のBSを完成させ、ニューサウスウェールズ大学から博士号を取得した。 0.72
He is currently an Associate Professor at the Information Technology University (ITU)-Punjab, Lahore, Pakistan. 現在はパキスタンのラホールにある情報技術大学(itu)-punjabの准教授を務めている。 0.64
He is the Director of the IHSAN Lab at ITU that focuses on deploying ICT for development, and is engaged in systems and networking research. ITUのIHSAN Labのディレクターであり、開発のためのICTの展開に重点を置いており、システムやネットワークの研究に従事している。 0.75
Prior to joining ITU, he was an Assistant Professor at the School of Electrical Engineering and Computer Sciences (SEECS), National University of Sciences and Technology (NUST), Pakistan. ITUに入社する前は、パキスタンの国立科学技術大学(NUST)の電気工学・コンピュータ科学学校(SEECS)の助教授を務めていました。 0.65
At SEECS, he directed the Cognet Lab at SEECS that focused on cognitive networking and the application of computational intelligence techniques in networking. SEECSでは、認知ネットワークとコンピュータインテリジェンス技術のネットワークへの応用に焦点を当てた、SEECSのCagnet Labを指揮した。 0.73
He has been awarded the highest national teaching award in Pakistan—the higher education commission’s (HEC) best university teacher award—for the year 2012-2013. 2012-2013年、パキスタンの高等教育委員会(hec)の最優秀大学教員賞(higher education commission's best university teacher award)を受賞。 0.73
He has been nominated for this award twice (2011, and 2012-2013). この賞は2011年と2012-2013年に2度ノミネートされた。 0.62
His research interests include the application of algorithmic, machine learning, and optimization techniques in networks. 彼の研究分野は、ネットワークにおけるアルゴリズム、機械学習、最適化技術の適用である。 0.72
In particular, he is interested in the broad areas of wireless networks, cognitive networking, software-defined networks, and cloud computing. 特に彼は、無線ネットワーク、認知ネットワーク、ソフトウェア定義ネットワーク、クラウドコンピューティングの幅広い分野に興味を持っている。 0.75
He is a regular reviewer for a number of journals and has served in the program committee of a number of international conferences. 彼は多くの雑誌の定期的なレビュアーであり、多くの国際会議のプログラム委員会で働いた。 0.67
He serves as an Associate Editor for IEEE Access, IEEE Communication Magazine, and Springer Nature Big Data Analytics. 彼はIEEE Access、IEEE Communication Magazine、Springer Nature Big Data Analyticsのアソシエイトエディターを務めています。
訳抜け防止モード: 彼はIEEE Access, IEEE Communication Magazineの副編集長を務めている。 そしてSpringer Nature Big Data Analytics。
0.78
He was the lead guest editor for the special issue “Artificial Intelligence Enabled Networking” in IEEE Access and the feature topic “Wireless Technologies for Development” in IEEE Communications Magazine. 彼はIEEE Accessの特別号「Artificial Intelligence Enabled Networking」とIEEE Communications Magazineの特集テーマ「Wireless Technologies for Development」のゲスト編集者を務めました。
訳抜け防止モード: 彼はIEEE Accessの特別号“Artificial Intelligence Enabled Networking”の主席ゲストエディタだった。 そして IEEE Communications Magazine の "Wireless Technologies for Development " というトピックも取り上げている。
0.83
He is a member of ACM, and a senior member of IEEE. 彼はACMのメンバーであり、IEEEのシニアメンバーです。 0.58
                   ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。