論文の概要、ライセンス

# (参考訳) PCAとGWOによる深部機能選択を用いた頸部細胞診 [全文訳有]

Cervical Cytology Classification Using PCA & GWO Enhanced Deep Features Selection ( http://arxiv.org/abs/2106.04919v1 )

ライセンス: CC BY 4.0
Hritam Basak, Rohit Kundu, Sukanta Chakraborty, Nibaran Das(参考訳) 子宮頸癌は世界でも最も致命的かつ一般的な疾患の1つである。 早期に診断すれば完全に治すことができるが、退屈で高価な検出方法により、集団検診は不可能である。 そこで本研究では, 細胞診画像分類における進化的最適化を用いたDeep Learningと特徴選択を利用した完全自動化フレームワークを提案する。 提案フレームワークは,いくつかの畳み込みニューラルネットワークモデルから深度特徴を抽出し,計算コストの低減と収束の高速化を図るために2段階の特徴低減手法を用いる。 cnnモデルから抽出された特徴は、分散の99%を保ちながら主成分分析により次元が減少する大きな特徴空間を形成する。 進化最適化アルゴリズムであるGrey Wolf Optimizerを用いて,非冗長で最適な特徴部分集合をこの特徴空間から選択し,分類性能を向上させる。 最後に、選択された機能サブセットを使用して、最終予測を生成するsvm分類器をトレーニングする。 Mendeley Liquid Based Cytology (4-class) データセット、Herlev Pap Smear (7-class) データセット、SIPaKMeD Pap Smear (5-class) データセットそれぞれ99.47%、98.32%、97.87%の分類精度を達成し、アプローチの信頼性を正当化する。 提案するアプローチに関連するコードは、https://github.com/d vlp-cmaterju/two-ste p-feature-enhancemen tにある。

Cervical cancer is one of the most deadly and common diseases among women worldwide. It is completely curable if diagnosed in an early stage, but the tedious and costly detection procedure makes it unviable to conduct population-wise screening. Thus, to augment the effort of the clinicians, in this paper, we propose a fully automated framework that utilizes Deep Learning and feature selection using evolutionary optimization for cytology image classification. The proposed framework extracts Deep feature from several Convolution Neural Network models and uses a two-step feature reduction approach to ensure reduction in computation cost and faster convergence. The features extracted from the CNN models form a large feature space whose dimensionality is reduced using Principal Component Analysis while preserving 99% of the variance. A non-redundant, optimal feature subset is selected from this feature space using an evolutionary optimization algorithm, the Grey Wolf Optimizer, thus improving the classification performance. Finally, the selected feature subset is used to train an SVM classifier for generating the final predictions. The proposed framework is evaluated on three publicly available benchmark datasets: Mendeley Liquid Based Cytology (4-class) dataset, Herlev Pap Smear (7-class) dataset, and the SIPaKMeD Pap Smear (5-class) dataset achieving classification accuracies of 99.47%, 98.32% and 97.87% respectively, thus justifying the reliability of the approach. The relevant codes for the proposed approach can be found in: https://github.com/D VLP-CMATERJU/Two-Ste p-Feature-Enhancemen t
公開日: Wed, 9 Jun 2021 08:57:22 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Cervical Cytology Classification Using PCA & GWO Enhanced Deep Features Selection PCAとGWOによる深部機能選択を用いた頸部細胞診 0.74
1 Hritam Basak 1 Hritam Basak 0.85
Department of Electrical Engineering, Jadavpur University ジャダヴプル大学電気工学科 0.50
188, Raja S.C. Mullick Road, 188, Raja S.C. Mullick Road 0.92
Jadavpur, Kolkata-700032, West Bengal, INDIA jadavpur, kolkata-700032, 西ベンガル, インド 0.85
Email: hritambasak48@gmail. com メール: hritambasak48@gmail. com 0.73
Rohit Kundu ロヒト・クンドゥ(rohit kundu) 0.33
Department of Electrical Engineering, Jadavpur University ジャダヴプル大学電気工学科 0.50
188, Raja S.C. Mullick Road, 188, Raja S.C. Mullick Road 0.92
Jadavpur, Kolkata-700032, West Bengal, INDIA jadavpur, kolkata-700032, 西ベンガル, インド 0.85
Email: rohitkunduju@gmail.c om メール: rohitkunduju@gmail.c om 0.81
Sukanta Chakraborty すかんたチャクラボラティ 0.36
Theism Medical Diagnostics Centre Theism Medical Diagnostics Centre 0.85
Dum Dum, Kolkata-700030, West Bengal, INDIA インド、西ベンガル、コルカタ700030のダム・ダム 0.67
Email: drsukantachakraborty @gmail.com メール: drsukantachakraborty @gmail.com 0.80
Department of Computer Science & Engineering, Jadavpur University ジャダヴプル大学コンピュータ科学工学科 0.43
Nibaran Das* Nibaran Das* 0.85
188, Raja S.C. Mullick Road, 188, Raja S.C. Mullick Road 0.92
Jadavpur, Kolkata-700032, West Bengal, INDIA jadavpur, kolkata-700032, 西ベンガル, インド 0.85
Email: nibaran.das@jadavpur university.in メール: nibaran.das@jadavpur university.in 0.67
*Corresponding author: Nibaran Das ※著者:ニバラン・ダス 0.40
*Corresponding author email: nibaran.das@jadavpur university.in ※著者メール:nibaran.das@jadavpu runiversity.in 0.78
*Corresponding author contact number: +913324572407 ※著者連絡先:+913324572407 0.69
1 2 0 2 n u J 1 2 0 2 n u J 0.85
9 ] V C . 9 ] 略称はC。 0.73
s c [ 1 v 9 1 9 4 0 sc [ 1 v 9 1 9 4 0 0.68
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
英語(論文から抽出)日本語訳スコア
Cervical Cytology Classification Using PCA & PCAとCervical Cytologyの分類 0.72
GWO Enhanced Deep Features Selection GWOの深層機能選択 0.74
Hritam Basak Hritam Basak 0.85
1, Rohit Kundu 1,Rohit Kundu 0.71
1, Sukanta Chakraborty2, and Nibaran Das 1,スカンタ・チャクラボルティ2,ニバラン・ダス 0.55
3 1 Department of Electrical Engineering, Jadavpur University, Kolkata, India 3 1 インド・コルカタのジャダヴプル大学電気工学科 0.71
2 Theism Medical Diagnostics Centre, Kolkata, India インド・コルカタの2つの神学医学診断センター 0.73
3 Department of Computer Science & Engineering, Jadavpur University, Kolkata, コルカタ・ジャダヴプル大学コンピュータ科学工学科3科 0.46
India Abstract. Cervical cancer is one of the most deadly and common diseases among women worldwide. インド 抽象。 子宮頸癌は世界でも最も致命的かつ一般的な疾患の1つである。 0.71
It is completely curable if diagnosed in an early stage, but the tedious and costly detection procedure makes it unviable to conduct population-wise screening. 早期に診断すれば完全に治すことができるが、退屈で高価な検出方法により、集団検診は不可能である。 0.58
Thus, to augment the effort of the clinicians, in this paper, we propose a fully automated framework that utilizes Deep Learning and feature selection using evolutionary optimization for cytology image classification. そこで本研究では, 細胞診画像分類における進化的最適化を用いたDeep Learningと特徴選択を利用した完全自動化フレームワークを提案する。 0.83
The proposed framework extracts Deep feature from several Convolution Neural Network models and uses a two-step feature reduction approach to to ensure reduction in computation cost and faster convergence. 提案フレームワークは,複数の畳み込みニューラルネットワークモデルからDeep特徴を抽出し,計算コストの低減と収束の高速化を図るために2段階の特徴低減アプローチを用いる。 0.82
The features extracted from the CNN models form a large feature space whose dimensionality is reduced using Principal Component Analysis while preserving 99% of the variance. cnnモデルから抽出された特徴は、分散の99%を保ちながら主成分分析により次元が減少する大きな特徴空間を形成する。 0.79
A non-redundant, optimal feature subset is selected from this feature space using an evolutionary optimization algorithm, the Grey Wolf Optimizer, thus improving the classification performance. 進化最適化アルゴリズムであるGrey Wolf Optimizerを用いて,非冗長で最適な特徴部分集合をこの特徴空間から選択し,分類性能を向上させる。 0.86
Finally, the selected feature subset is used to train an SVM classifier for generating the final predictions. 最後に、選択された機能サブセットを使用して、最終予測を生成するsvm分類器をトレーニングする。 0.62
The proposed framework is evaluated on three publicly available benchmark datasets: Mendeley Liquid Based Cytology (4-class) dataset, Herlev Pap Smear (7-class) dataset, and the SIPaKMeD Pap Smear (5class) dataset achieving classification accuracies of 99.47%, 98.32% and 97.87% respectively, thus justifying the reliability of the approach. mendeley liquid based cytology (4-class) dataset, herlev pap smear (7-class) dataset, sipakmed pap smear (5-class) dataset それぞれ99.47%, 98.32%, 97.87%の分類精度を実現し, アプローチの信頼性を正当化する。 0.63
The relevant codes for the proposed approach can be found in: GitHub 提案するアプローチに関連するコードは、以下のとおりである。 0.68
Keywords: Deep Learning · Cervical Cytology · Evolutionary Optimization · Principal Component Analysis · Grey Wolf Optimization キーワード:deep learning · cervical cytology · evolution optimization · principal component analysis · grey wolf optimization 0.84
1 Introduction Cancer is the second leading cause of death worldwide, causing around 9.6 million deaths every year and about 1/6th of the total deaths of the population throughout the globe. 1 はじめに がんは世界で2番目に多い死因であり、毎年約960万人が死亡し、世界の人口の6分の1が死亡している。 0.72
Studies also suggest that the economic impact of cancer is significant as most of these deaths have been reported from poor and middleincome countries where the living index is low and healthcare infrastructure is また、がんの経済的影響は、生活指数が低い貧困国や中所得国で報告され、医療インフラが整備されていることからも示唆されている。 0.70
英語(論文から抽出)日本語訳スコア
3 Fig. 1: Overall workflow of the proposed framework 3 フィギュア。 1:提案フレームワークの全体的なワークフロー 0.72
comparatively insufficient for diagnosis and potential treatments. 診断や治療に比較的不十分である。 0.58
Among them, cervical cancer is the fourth most common cancer worldwide, having around 570 thousands of reported cases every year and the second most common cancer in women causing around 311 thousands of deaths per year [17]. 子宮頸癌は世界で4番目に多いがんで、毎年約570万件の報告があり、女性では2番目に多いがんで、毎年約311万人が死亡している[17]。 0.61
Pap smear test is currently the most reliable and renowned screening tool for the detection of pre-cancerous cells and cervical lesions in women based on microscopic studies of the cells. papスメアテストは現在、細胞の顕微鏡的研究に基づいて、女性の癌前細胞と子宮頸病変を検出するための最も信頼性が高く著名なスクリーニングツールである。
訳抜け防止モード: Pap smear testは、癌前細胞検出のための最も信頼性が高く有名なスクリーニングツールである 女性の頚部病変は 細胞の顕微鏡的研究に基づいています
0.85
However, the process is time-consuming since pathologists need a lot of time to classify each cell from a slide of over 10,000 cells. しかし、病理学者は各細胞を1万個以上の細胞から分類するのに多くの時間を必要とするため、このプロセスは時間がかかります。
訳抜け防止モード: しかし、プロセスは時間です。 消費する 病理学者は1万以上の細胞から 細胞を分類するのに多くの時間が必要です
0.72
Thus, an automated detection tool needs to be developed to classify precancerous lesions for early detection and widespread screening. そのため,早期発見と広範なスクリーニングのために,先天病変を分類するための自動検出ツールの開発が必要となる。 0.68
With the advent of artificial intelligence and deep learning in the domain of medical sciences and healthcare [4, 8, 6], it is more becoming to lie on the results predicted by this decision-support system [7, 12] to undermine the observer-bias issues. 医学・医療分野における人工知能とディープラーニングの出現 [4, 8, 6] により、この意思決定支援システム [7, 12] によって予測された結果に基づいて、オブザーババイアス問題を弱体化させている。 0.67
In this paper, we seek to develop an alternative approach that utilizes the Deep learning-based feature extraction and optimization algorithm that gives excellent multi-class classification accuracy, performing robustly and outperforming several existing methods like [18, 40, 11, 9, 31, 32, 15]. 本稿では,Deep Learningに基づく特徴抽出と最適化アルゴリズムを用いて,優れた多クラス分類精度を実現し,[18, 40, 11, 9, 31, 32, 15] などの既存手法を頑健かつ優れた性能で実現する手法を提案する。 0.89
In this research, we extracted deep features [3, 5] from pre-trained CNN models and concatenated the features to form a large feature space. 本研究では,事前学習したcnnモデルから深い特徴[3,5]を抽出し,特徴を結合して大きな特徴空間を形成する。 0.80
This is followed by the application of the Principal Component Analysis (PCA) method for dimensionality reduction of the feature space, while keeping most of the important features intact, for which we retained 99% of the variance of the feature space. これに続いて,主成分分析法 (PCA) を用いて特徴空間の次元化を図り,重要な特徴の大部分をそのまま維持し,特徴空間の分散の99%を維持した。 0.72
Some of the features extracted from the CNN classifiers might be noninformative or might even lead to a higher misclassification rate. CNN分類器から抽出された特徴のいくつかは、非形式的かもしれないし、より高い誤分類率につながるかもしれない。
訳抜け防止モード: CNN分類器から抽出された特徴のいくつかは非形式的であるかもしれない あるいは誤分類率も高くなるかもしれません
0.61
To eliminate such redundant, misleading features, generally, evolutionary optimization algorithms are preferred by researchers, but applying such algorithms directly to CNN-extracted features leads to computational wastage due to the very high このような冗長で誤解を招く特徴を取り除くため、一般的には進化的最適化アルゴリズムは研究者によって好まれるが、cnnに抽出された特徴に直接アルゴリズムを適用すると、非常に高い値のため計算の舞台はずれる。
訳抜け防止モード: このような冗長で誤解を招く特徴を排除する。 一般的に 進化最適化アルゴリズムは 研究者に好まれるが このようなアルゴリズムをCNNに直接適用する - 抽出された特徴は、非常に高い計算時間の浪費につながる
0.66
英語(論文から抽出)日本語訳スコア
4 dimensionality of the feature space. 4 特徴空間の次元性です 0.80
PCA reduces the dimensionality of the feature space or number of data points by combining highly correlated variables to form a smaller number of new variables, known as ”principal components”. PCAは、高相関変数を組み合わせて特徴空間やデータ点の次元を減少させ、"主成分"として知られる少数の新しい変数を形成する。 0.77
From PCA, we also get higher variations in the data, even in a lower dimension. PCAからは、低次元であっても、データのより高度なバリエーションが得られます。 0.66
This new feature space of dimensionality lower than the original space, when used as an input to a metaheuristic optimization algorithm, significantly reduces the computation cost since a lower population size is required for faster convergence. この新たな特徴空間は,メタヒューリスティック最適化アルゴリズムの入力として用いると,より高速な収束のために人口規模を小さくする必要があるため,計算コストを大幅に削減する。 0.85
The number of iterations required for reaching the global optima is also greatly reduced (i.e., faster evolution). グローバルオプティマに到達するのに必要なイテレーションの数も大幅に減少している(つまり、より速い進化)。 0.70
Specifically, among different evolutionary optimization algorithms available, we used the Grey Wolf Optimizer (GWO) [30] for optimal feature set selection. 具体的には,Grey Wolf Optimizer (GWO) [30] を用いて最適な特徴セット選択を行った。 0.66
The GWO is embedded with a Support Vector Machines (SVM) classifier [47] with Radial Basis Function (RBF) kernel for fitness assignment and final classification. GWOにはSVM(Support Vector Machines, SVM)分類器[47]が組み込まれ, 適合度割り当てと最終分類のための放射基底関数(RBF)カーネルが組み込まれている。 0.73
This method significantly decreased the training time for the classification task, while maintaining the competitive accuracy of predictions. この方法は, 予測の競合精度を維持しつつ, 分類作業の訓練時間を著しく短縮した。 0.82
The overall workflow of the proposed framework is shown in Figure 1. 提案されたフレームワークの全体的なワークフローを図1に示す。 0.81
The contributions of this paper can be summarized as follows: 本論文の貢献は以下のとおりである。 0.64
1. In the current paper, we propose a framework for the optimal selection of deep features extracted from Convolutional Neural Network (CNN) classifiers. 1. 本稿では,畳み込みニューラルネットワーク(CNN)分類器から抽出した深い特徴の最適選択のためのフレームワークを提案する。 0.84
2. The dimensionality of the feature set extracted from the CNNs is large and thus Principal Component Analysis (PCA) is used to reduce the dimensionality while retaining the highly discriminating features. 2. CNNから抽出された特徴集合の次元性は大きいので、主成分分析(PCA)は、高度に識別された特徴を保持しながら寸法性を低減するために用いられる。 0.76
The resulting feature subset, when used as the input of GWO, reduces the computation and ensures faster convergence. GWOの入力として使用される特徴部分集合は計算を減らし、より高速な収束を保証する。 0.69
3. Optimal features are selected through the use of a nature-inspired evolutionary optimization algorithm, the Grey Wolf Optimizer (GWO), for the first time in the cervical cytology domain, which filters out only the nonredundant features for making the final predictions. 3. 最適な特徴は、自然に着想を得た進化最適化アルゴリズムであるGrey Wolf Optimizer (GWO)を用いて、頚部細胞診領域で初めて選択される。
訳抜け防止モード: 3. 最適な特徴は自然にインスパイアされた進化的最適化アルゴリズムによって選択される。 Grey Wolf Optimizer (GWO) は、頚部細胞診領域で初めて用いられる。 最終的な予測を行うために、非冗長な機能のみをフィルタリングします。
0.79
4. The proposed framework has been evaluated on three publicly available datasets: the Herlev Pap Smear dataset [24], the SIPaKMeD Pap Smear dataset [34] and the Mendeley Liquid Based Cytology dataset [23], achieving classification accuracies of 98.32%, 97.87% and 99.47% respectively. 4. 提案フレームワークは、herlev pap smear dataset [24]、sipakmed pap smear dataset [34]、mendeley liquid based cytology dataset [23]の3つの公開データセットで評価されており、それぞれ98.32%、97.87%、99.47%の分類精度を達成している。 0.81
The proposed method outperformed traditional CNN based approaches and is comparable to state-of-the-art methods. 提案手法は従来のcnn方式よりも優れており,最先端手法に匹敵する。 0.59
The rest of the paper is organized as follows: Section 2 surveys some of the recent developments in the automated detection of cervical cancer; Section 3 describes the proposed methodology in detail; Section 4 evaluates the performance of the proposed framework on three publicly available benchmark datasets and Section 5 concludes the paper. 第2節は頸部癌の自動検出に関する最近の進展を調査し、第3節では提案手法を詳細に記述し、第4節では3つのベンチマークデータセットについて提案フレームワークの性能を評価し、第5節では論文をまとめている。 0.76
2 Related Work Previous studies show that feature extraction and selecting non-redundant features is an important part of the classification process and it affects the classifi- 2 関連作業 先行研究では,特徴抽出と非冗長特徴の選択が分類過程の重要な部分であり,分類に影響を及ぼすことが示されている。
訳抜け防止モード: 2 関連作業 これまでの研究では 特徴抽出と非冗長特徴の選択は、分類プロセスの重要な部分である クラスifiに影響を与えます
0.78
英語(論文から抽出)日本語訳スコア
5 cation result significantly. 5 カチオンは大きな結果です 0.63
Different methods have been explored over the years, like traditionally handcrafted feature extraction and feature selection [2], Simulated Annealing (SA)[37], Convolutional Neural Networks [41], Fuzzy-C means [38], to name a few. 従来の手作りの特徴抽出や特徴選択 [2],Simulated Annealing (SA)[37], Convolutional Neural Networks [41], Fuzzy-C means [38]など,さまざまな手法が長年にわたって検討されてきた。 0.82
Some have given very good results in binary classification but not so much in multi-class classification, only a few have successfully given good results even for multi-class classification problem [9, 11, 27]. バイナリ分類において非常に良い結果が得られたが、マルチクラス分類ではそれほど良い結果が得られていないものも少なくない [9, 11, 27] マルチクラス分類問題においても良い結果が得られた例もわずかである。 0.63
One of the major concerns is the availability of open-access datasets and the volume of images available in them for each class, which is a major setback for a lot of proposed methods in the literature. 主要な関心事の1つは、オープンアクセスデータセットが利用可能であることと、各クラスで利用可能な画像量である。
訳抜け防止モード: 主な懸念点の1つは、オープンアクセスデータセットの可用性である。 それぞれのクラスで利用可能な画像の量です これは文献で提案された多くの方法の 大きな欠点です
0.77
Chankong et al [11] used different classifiers for binary and multi-class classification with the best accuracy obtained using ANN. Chankong et al [11] は ANN を用いて得られた最高の精度で二進分類と多進分類に異なる分類器を使用した。 0.68
William et al [39] used an enhanced Fuzzy C-means by extracting features from the cell images in Herlev Dataset and got an accuracy of 98.88%. William et al [39] は、Herlev Datasetのセル画像から特徴を抽出して拡張された Fuzzy C-means を使用し、98.88%の精度を得た。
訳抜け防止モード: William et al [39 ] は拡張された Fuzzy C を使用した。 Herlev Datasetにおけるセルイメージからの特徴抽出 98.88%の精度で
0.82
Byriel et al [10] used the ANFIS neurofuzzy classification technique which achieved an accuracy of 96% on the 2-class problem but performed much worse on the 7-class problem. Byriel et al [10] は ANFIS 神経ファジィ分類法を用いて, 2 級では 96% の精度を達成したが, 7 級ではさらに悪化した。 0.74
Zhang et al [45] used MLBC slides stained in H&E in two ways: once posing it as a 2-class dataset and again using it as a 7-class dataset. Zhang氏ら[45]は、H&Eで染色されたMLBCスライドを2つの方法で使用した。
訳抜け防止モード: Zhang et al [45 ] using MLBC slides stained in H&E: Two way: 一度それを2クラスのデータセットとしてポーズし、7クラスのデータセットとして使用します。
0.75
They used the Fuzzy Clustering-means approach and got an accuracy of 96-97% in the 2-class problem and 72-77% on the 7-class problem. Fuzzy Clustering-meansアプローチを用い、2クラスでは96-97%、7クラスでは72-77%の精度を得た。 0.75
Bora et al [9] used Ensemble classifier on the Herlev Dataset and got an accuracy of 96.5%. Boraら[9]はHerlev DatasetでEnsemble分類器を使用し、96.5%の精度を得た。 0.75
Marinakis et al [26] in a way similar to [45, 42] of using the Herlev Dataset as both a 2-class and a 7-class problem, used genetic algorithm combined with nearest neighbour classifier and got the best result with 1 nearest neighbour classifier giving an accuracy of 98.14% on the 2-class problem and 96.95% on the 7-class problem both in 10-fold cross-validation. marinakis et al [26] は、[45, 42] が herlev データセットを 2-クラスと 7-クラス問題の両方として使用するのと似た方法で、遺伝的アルゴリズムを近辺の分類器と組み合わせて、最善の結果を得た。
訳抜け防止モード: Marinakis et al [26 ] は[45, 42 ] に類似している Herlevデータセットを2クラスと7クラスの両方の問題として使用する。 使用済みの遺伝的アルゴリズムと最も近い隣人分類器を組み合わせ、最も良い結果を得た。 そして、9.95 %が 10-fold cross の 2 つのクラスで問題を起こしている。
0.79
Zhang et al [46] used a deep convolutional neural network architecture thus removing the need for cell segmentation like [22, 12] on the Herlev Dataset and achieved an accuracy of 98.3%. Zhangら[46]は、深い畳み込みニューラルネットワークアーキテクチャを使用して、Herlev Dataset上の[22, 12]のような細胞セグメンテーションの必要性を取り除き、98.3%の精度を達成した。 0.72
However, the number of publicly available datasets related to the smear images of cervical cytology is quite less and each of them contains only nearly a thousand images or less. しかしながら、頚椎細胞診のスメア画像に関連する公開データセットの数は極めて少なく、それぞれに1000枚近い画像しか含まれていない。 0.70
So it becomes quite difficult to design a classical deep learning or machine learning model with that few images to classify between these images with an improved accuracy than the preexisting methods. そのため、従来のディープラーニングや機械学習のモデルでは、既存の手法よりも精度が向上し、画像間の分類がほとんどないため、設計が困難になる。 0.75
However, transfer learning can be used for this purpose that can quite significantly tackle this issue where we use a pre-trained model (for example ResNet-50 trained with ImageNet [14]), fine-tune the model, and use that for the classification purpose. しかし、トランスファーラーニングは、事前訓練されたモデル(例えば、ImageNet [14]で訓練されたResNet-50)を使用し、モデルを微調整し、分類目的に使用するという、この問題にかなり対処することができる。 0.75
Akter et al [1] performed experimentations with different machine learning classifiers performed detailed comparative analysis on their performance. akterらは、異なる機械学習分類器を用いて実験を行い、その性能について詳細な比較分析を行った。 0.68
Data augmentation can be another solution where we can virtually increase the dataset size by slight movement or rotation or some other changes of the images. データ拡張は、わずかな動きや回転、あるいは画像の他の変更によって、データセットのサイズを事実上増やせる別のソリューションになり得る。 0.72
However, these methods cannot improve the results significantly as they cannot add more features or information to the algorithm to learn from. しかし、これらの手法は、学習するアルゴリズムにより多くの機能や情報を加えることができないため、結果を著しく改善することができない。
訳抜け防止モード: しかし、これらの手法は結果を大幅に改善することはできない。 アルゴリズムにより多くの機能や情報を加えることはできません
0.74
Therefore, as suggested by [33], we tried a new optimal feature selection approach for improving the classification accuracy and robustness of the task. そこで,[33]で示唆されたように,タスクの分類精度とロバスト性を改善するために,新しい最適特徴選択手法を試みた。 0.84
英語(論文から抽出)日本語訳スコア
6 3 Materials and Method The experiment consisted of the following steps: (1) Data acquisition (collecting image datasets of Pap smear test results from different sources), (2) Data Preprocessing (structuring the data incorrect formats and verifying the datasets), (3) Feature extraction (Extracting the important features from the datasets using different CNN models), (4a) Combining the features from different CNNs (to increase the effectiveness of the features) (4b) Feature reduction using Principal Component Analysis (PCA) method (to discard the redundant features and to improve the classification time), (5) Fitting these features to the classifier and (6) Analysis of the results. 6 3 材料と方法 The experiment consisted of the following steps: (1) Data acquisition (collecting image datasets of Pap smear test results from different sources), (2) Data Preprocessing (structuring the data incorrect formats and verifying the datasets), (3) Feature extraction (Extracting the important features from the datasets using different CNN models), (4a) Combining the features from different CNNs (to increase the effectiveness of the features) (4b) Feature reduction using Principal Component Analysis (PCA) method (to discard the redundant features and to improve the classification time), (5) Fitting these features to the classifier and (6) Analysis of the results. 0.86
The whole task was performed using a machine having NVIDIA Tesla K80 GPU with 12 GB of available RAM size. タスク全体は、nvidia tesla k80 gpuで12gbのramサイズを持つマシンで実行された。 0.75
3.1 Datasets Used (a) Herlev Dataset 3.1データセット (a)Herlevデータセット 0.72
(b) Mendeley Dataset (b)mendeleyデータセット 0.64
Fig. 2: Examples of images from each class in the three publicly available datasets フィギュア。 2: 公開されている3つのデータセットの各クラスの画像例 0.62
(c) SIPaKMeD Dataset (c)SIPaKMeDデータセット 0.86
We use three publicly available cervical cytology datasets in this study for 本研究には3つの頚椎細胞診データセットを用いた。 0.70
evaluating the proposed classification framework: 提案する分類枠組みの評価 0.73
英語(論文から抽出)日本語訳スコア
1. Herlev Pap Smear dataset by Jantzen et al [24] 2. 1. JantzenらによるHerlev Pap Smearデータセット [24] 2。 0.82
Mendeley Liquid Based Cytology dataset by Hussain et al [23] 3. Mendeley Liquid Based Cytology dataset by Hussain et al [23] 3 0.76
SIPaKMeD Pap Smear dataset by Plissiti et al [34] Plissiti et al[34]によるSIPaKMeD Pap Smearデータセット 0.90
These datasets are described in brief in the following subsections. これらのデータセットは以下の節で簡潔に記述される。 0.63
7 Table 1: Distribution of images in the three publicly available datasets Dataset Class Category 7 表1: 公開されている3つのデータセットのイメージの分布 データセットクラスカテゴリ 0.85
Cell type Number of images Herlev 細胞型 画像数 ハーレフ 0.59
Pap Smear (Total: 917) パパ・スミア(917年) 0.45
Mendeley 1 2 3 メンデリー 1 2 3 0.60
Normal Normal Normal 4 Abnormal 正常正常正常者 4 異常 0.74
5 Abnormal 6 Abnormal 7 Abnormal 異常5 6異常 7 異常 0.73
Intermediate Squamous Epithelial Columnar Epithelial 中間扁平上皮 柱状上皮 0.50
Superficial Squamous Epithelial Mild Squamous 表在性扁平上皮 Mild‐Squamous 0.58
non-keratinizing Dysplasia Squamous cell carcinoma 非ケラチン化Dysplasia Squamous cell carcinoma 0.83
in-situ intermediate Moderate Squamous non-keratinizing Dysplasia 中等級中等級扁平体 non‐keratinizing Dysplasia 0.58
Severe Squamous squamous (複数形 squamouss) 0.32
non-keratinizing Dysplasia non‐keratinizing Dysplasia 0.70
1 Normal Negative for Intraepithelial Malignancy 1 上皮内悪性腫瘍に対する正常陰性 0.68
LBC 2 Abnormal (Total: 963) LBC 2 異常 (元慶2年(963年)) 0.61
3 Abnormal SIPaKMeD Pap Smear 3 異常 SIPaKMeD パパ・スミア 0.68
(Total: 4049) (総じて4049年) 0.57
Normal Normal 4 Abnormal 1 2 3 Abnormal 4 Abnormal 5 正常正常 4 異常 1 2 3 異常 4 異常 5 0.71
Benign Low grade Squamous Intraepithelial Lesion (LSIL) ベニィン 低級扁平 上皮内病変(LSIL) 0.52
High grade Squamous Intraepithelial Lesion (HSIL) 高級スコーモース 上皮内病変(HSIL) 0.51
Squamous Cell Carcinoma (SCC) 扁平上皮癌(SCC) 0.65
Superficial-Intermediate Parabasal 表面中間体 パラバス 0.47
Koilocytotic Dyskeratotic Metaplastic Koilocytotic Dyskeratotic Metaplastic 0.85
70 98 74 182 70 98 74 182 0.85
150 146 197 150 146 197 0.85
613 163 113 613 163 113 0.85
74 831 787 825 813 793 74 831 787 825 813 793 0.85
Herlev Pap Smear Dataset The Herlev Pap Smear dataset is a publicly available benchmark dataset consisting of 917 single cell images distributed unevenly among 7 different classes. Herlev Pap Smear Dataset Herlev Pap Smearデータセットは,7つのクラスに不均一に分散された917の単一セルイメージからなる,公開可能なベンチマークデータセットである。 0.78
The distribution of images in each class are tabulated in Table 1. 各クラス内の画像の分布をテーブル1に集計する。 0.77
Mendeley Liquid Based Cytology Dataset The Mendeley LBC dataset [23] developed at Obstetrics and Gynecology department of Guwahati Medical College and Hospital, consists of 963 whole slide images of cervical cytology distributed unevenly in four different classes as shown in Table 1. Mendeley Liquid Based Cytology Dataset Mendeley LBC dataset [23] in Obstetrics and Gynecology Department of Guwahati Medical College and Hospital, consist of 963 whole slide image of cervical cytology distributed in four different class as shown。
訳抜け防止モード: Mendeley Liquid Based Cytology Dataset Mendeley LBC data [23 ] developed at Obstetrics and Gynecology Department of Guwahati Medical College and Hospital, 表1に示すように、4つの異なるクラスに不均一に分散された頚部細胞診のスライド画像963枚からなる。
0.91
SIPaKMeD Pap Smear dataset The SIPaKMeD Pap Smear dataset by Plissiti et al [34] consists of 4049 images of isolated cells (extracted from 966 whole slide images) categorized into five different classes based on their cytomorphological features. SIPaKMeD Pap Smear データセット Plissiti et al [34] による SIPaKMeD Pap Smear データセットは、分離された細胞(966枚のスライド画像から抽出された)の4049個の画像からなり、細胞形態学的特徴に基づいて5つのクラスに分類される。 0.73
The distribution of images in the dataset is shown in Table 1. データセット内の画像の分布をテーブル1に示す。 0.75
英語(論文から抽出)日本語訳スコア
8 3.2 Deep Features Extraction 8 3.2 深い特徴抽出 0.80
Handcrafted or manual feature extraction using traditional Machine Learning techniques has limitations both in terms of the number of features and their correlations. 従来の機械学習技術を用いた手作業や手作業による特徴抽出には,特徴数と相関性の両方に制限がある。 0.78
Extracting features from a large dataset is a tedious task and can incorporate human biases, affecting the quality of the features that can eventually affect the classification task. 大きなデータセットから機能を抽出するのは面倒な作業であり、人間のバイアスを取り入れ、最終的に分類タスクに影響を与える可能性のある機能の品質に影響を与える。 0.64
Redundant features might be extracted which might lead to higher rates of misclassification. 冗長な特徴が抽出され、誤分類の率が高くなる可能性がある。 0.54
So, in this work, we extract deep features from CNN classifiers. そこで本研究では,CNN分類器から深い特徴を抽出する。 0.74
Deep Learning models use backpropagation to learn the important features themselves, and thus eliminates the tedious process of using handcrafted features. ディープラーニングモデルは、バックプロパゲーションを使用して、重要な機能自体を学習する。
訳抜け防止モード: ディープラーニングモデルはバックプロパゲーションを使用して、重要な機能自体を学習する。 これにより、手作りの機能を使用する退屈なプロセスが排除される。
0.52
For the present study, we have used ResNet-50 [19], VGG-16 [35], Inception v3 [36] and DenseNet-121 [21] for extraction of features from the penultimate layer of the models. 本研究では,resnet-50 [19], vgg-16 [35], inception v3 [36], densenet-121 [21] を用いて,模型のペナルティファイト層から特徴抽出を行った。 0.79
While performing feature extraction from a CNN, we use the pre-trained model and fine-tune the CNN using our data, letting each image propagate through the layers in a forwarding direction, terminating at the pre-final layer, and taking out the output of this layer as the feature vector. 我々は、CNNから特徴抽出を行う際、トレーニング済みモデルを用いて、データを用いてCNNを微調整し、各画像を前方方向に伝播させ、最終層で終端し、この層を特徴ベクトルとして出力する。
訳抜け防止モード: CNNから機能抽出を行う際、事前訓練されたモデルを使用して、CNNをチューニングします。 データを使って それぞれの画像が 進行方向の層を伝播させます ファイナル・レイヤで終了し、このレイヤの出力を特徴ベクトルとして取り出す。
0.67
We use pre-trained weights (Transfer Learning) in this study because the biomedical data is scarce and insufficient for Deep Learning models to work efficiently if trained from scratch. 本研究では,バイオメディカルデータが乏しく,Deep Learningモデルがスクラッチからトレーニングすれば効率的に動作できないため,事前訓練したウェイト(Transfer Learning)を用いる。 0.80
ImageNet [14] dataset consists of 14 billion images divided into 1000 classes. imagenet [14]データセットは140億のイメージを1000のクラスに分割する。 0.75
We use the models pretrained on this dataset and replace the final classification layer of size 1000 with a layer of size equals to the number of classes in our dataset. このデータセットで事前訓練されたモデルを使用し、1000の最終的な分類層をデータセットのクラス数に等しい大きさの層に置き換えます。 0.81
A model pretrained on such a large dataset already has learned important features from image data, and just needs fine-tuning for less number of epochs to train the final classification layer that we added. このような大規模なデータセットで事前トレーニングされたモデルは、画像データから重要な特徴を学びました。
訳抜け防止モード: このような大規模なデータセットで事前訓練されたモデルはすでに、画像データから重要な特徴を学習している。 良いことが必要なんだ 最終分類レイヤーを 訓練するエポックの数を減らします
0.69
VGG-16 The main characteristics of VGG nets [35] includes the use of 3 × 3 convolution layers which gave a noticeable improvement in network performances while making the network deep. vgg-16 vgg nets [35]の主な特徴は、3×3畳み込み層の使用であり、ネットワークを深いものにしながらネットワーク性能が著しく向上した。 0.72
3 × 3 receptive filters were used throughout the entire net with strides of 1. 3×3のレセプティブフィルタをネット全体に使用し,ストライドは1。 0.65
Local Response Normalization (LRN) is not used in VGG Nets because memory consumption is more in such cases. ローカル応答正規化(LRN)は、メモリ消費が多いため、VGGネットでは使われない。 0.67
The smallsized convolution filters give VGG Nets a chance to have a very large number of weight layers which in turn boosts performance. 小型の畳み込みフィルタは、VGG Netsに非常に多くの重み付け層を持つ機会を与え、それによって性能が向上する。 0.76
The input has a shape of 224 × 224 × 3. 入力の形状は 224 × 224 × 3 である。 0.81
In the present work, we fine-tune the VGG-16 model using our datasets, employing Stochastic Gradient Descent (SGD) optimizer and Rectified Linear Unit (ReLU) activation function. 本研究では,Stochastic Gradient Descent(SGD)オプティマイザとRectified Linear Unit(ReLU)アクティベーション機能を用いて,データセットを用いてVGG-16モデルを微調整する。 0.79
ResNet-50 The ResNet-50 architecture [19] consists of residual skip connections embedded that make the training of the network easier. ResNet-50 ResNet-50アーキテクチャ [19] は、ネットワークのトレーニングを容易にするために組み込まれた残留スキップ接続で構成されています。 0.68
The gradient vanishing problem is addressed at the same time due to the embedding of the skip connections, which allows very deep networks to be accommodated for a controlled computation cost. 勾配消失問題はスキップ接続の埋め込みにより同時に解決され、非常に深いネットワークを制御された計算コストに対応させることができる。 0.68
224 × 224 × 3 sized inputs are used in the ResNet-50 model, with SGD optimizer and ReLU activation function. 224×224×3サイズの入力は、SGDオプティマイザとReLUアクティベーション機能を備えたResNet-50モデルで使用される。
訳抜け防止モード: 224 × 224 × 3 の入力は ResNet-50 モデルで使用される。 SGDオプティマイザとReLUアクティベーション関数を使用する。
0.73
Inception v3 The salient feature of the Inception v3 architecture [36], is the inception blocks that use parallel convolutions followed by channel concatenation. インセプション v3 インセプション v3 アーキテクチャ [36] の健全な特徴は、並列な畳み込みとチャネルの連結を使ったインセプションブロックである。 0.62
英語(論文から抽出)日本語訳スコア
9 This leads to vivid features being extracted but with seemingly shallow networks. 9 これにより、鮮明な特徴が抽出されるが、ネットワークは浅く見える。 0.75
Parallel convolutions also allow the overfitting problem to be addressed while controlling the computational complexity. 並列畳み込み(parallel convolutions)はまた、計算複雑性を制御しながらオーバーフィッティング問題に対処することができる。
訳抜け防止モード: 並列畳み込みによって 計算複雑性を制御しながら対処すべきオーバーフィッティング問題。
0.77
Inputs of shape 299 × 299 × 3 are used with SGD optimizer and ReLU activation function for deep features extraction. 形状299×299×3の入力は、深い特徴抽出のためにSGDオプティマイザとReLUアクティベーション機能で使用される。 0.75
DenseNet-121 The DenseNet model [21] was proposed to address the vanishing gradient descent problem. DenseNet-121 DenseNetモデル[21]は、消滅する勾配降下問題に対処するために提案された。 0.66
The fundamental blocks in the DenseNet architecture are connected densely to each other leading to low computational requirement since the number of trainable parameters decreased heavily. DenseNetアーキテクチャの基本ブロックは互いに密接に接続されており、トレーニング可能なパラメータの数が大幅に減少するため、計算要求が低くなる。 0.67
The DenseNet architectures add small sets of feature maps owing to their narrow architecture. DenseNetアーキテクチャは、その狭いアーキテクチャのために、小さな機能マップを追加する。 0.69
We used the DenseNet-121 variant using the SGD optimizer and ReLU activation function for deep features extraction. 我々はSGDオプティマイザとReLUアクティベーション関数を用いてDenseNet-121の変種を深部特徴抽出に利用した。 0.63
3.3 Principle Component Analysis 3.3 原則成分分析 0.80
Principal Component Analysis (PCA) is a linear dimensionality reduction method that transforms the higher dimensional data into a lower dimension by maximizing the variance of the lower dimension. 主成分分析(英: principal Component Analysis, PCA)は、高次元データを低次元の分散を最大化して低次元に変換する線形次元減少法である。 0.76
PCA was first introduced by Wold et al. PCAはWoldらによって最初に導入された。 0.65
in 1987 [44], however, further development and implementation of PCA in machine learning problems was done quite significantly in the later period [45], [46]. しかし,1987年[44]には,機械学習問題におけるPCAのさらなる開発と実装が,後期 [45], [46] において著しく行われた。 0.87
The covariance matrix of the feature vector is computed first and followed by the computation of eigenvectors of this matrix. 特徴ベクトルの共分散行列をまず計算し、続いてこの行列の固有ベクトルの計算を行う。 0.73
The eigenvectors that have the largest eigenvalues contribute to the formation of new reduced dimensionality of the feature vector. 最大の固有値を持つ固有ベクトルは、特徴ベクトルの新たな縮小次元の形成に寄与する。 0.75
Thus, instead of losing some of the important features of the data, we kept the most important of the features by preserving 99% of the variance. したがって、データの重要な特徴のいくつかを失う代わりに、分散の99%を保存することで、最も重要な特徴を保ちました。 0.77
Before applying the PCA algorithm for feature dimension reduction, we need to perform data preprocessing that is required for the further steps. 特徴量削減のためにPCAアルゴリズムを適用する前に、さらなるステップに必要なデータ前処理を行う必要がある。 0.86
Depending upon the n-dimensional training set x(1), x(2), x(3), . n-次元のトレーニング集合 x(1), x(2), x(3), に依存する。 0.73
. . x(n), we need to perform mean normalization or feature scaling similar to the supervised learning algorithms. . . x(n), 教師付き学習アルゴリズムと同様, 平均正規化や特徴スケーリングを行う必要がある。 0.81
The mean of each feature is computed as in Equation 1 それぞれの特徴の平均は方程式 1 のように計算される 0.72
n(cid:88) j=1 n(cid:88) j=1 0.71
µi = 1 n x(j) i μi= 1n x(j) i 0.82
(1) Now, we replace each of the xi value with the xi − µi value so that each of them has exactly zero mean value, however, if different features have different mean values, we can scale them so that they belong in a comparable range. (1) 現在、各 xi 値を xi − μi 値に置き換えて、それぞれの値が正確にゼロとなるようにしているが、異なる特徴が異なる平均値を持つ場合、それらが同等の範囲に属するようにスケールすることができる。 0.85
In supervised learning, this scaling process of the ith element is defined by Equation 2, where, si is the |max − mean| value or the static deviation of ith feature. 教師付き学習では、この ith 要素のスケーリング過程は方程式 2 で定義され、si は |max − mean| 値または ith 特徴の静的な偏差である。 0.72
x(j) i = i − µi x(j) si x(j) i = i − μi x(j) si 0.90
(2) For reducing the dimension of the feature from N to m (where m < N ), and to define the surface in N -dimensional space onto which we project the data, (2) 特徴の次元を N から m ( m < N ) に減らし、データを射影する N-次元空間で曲面を定義する。 0.73
英語(論文から抽出)日本語訳スコア
10 we need to find the mean square error of the projected data on the m dimensional vector. 10 m次元ベクトル上の投影されたデータの 平均2乗誤差を見つける必要がある 0.78
The computational proof of the calculation of these m vectors: u(1), u(2), . これらの m ベクトルの計算の計算的証明: u(1), u(2), . 0.76
. . , u(m) and the projected points: zu(1), z(2), . . . , u(m) と射影された点: zu(1), z(2), . 0.82
. . , z(N ) on these vectors is complicated and beyond the scope of this paper. . . これらのベクトル上の z(N ) は複雑であり、この論文の範囲を超えている。 0.80
The covariance matrix is computed as in Equation 3 where, the x(j) vector has N × 1 dimension and (x(j))T has 1 × N dimension, thus making the covariance matrix of dimension of N × N . 共分散行列は方程式3で計算され、x(j) ベクトルは N × 1 次元を持ち、(x(j))T は 1 × N 次元を持ち、したがって共分散行列は N × N 次元である。 0.79
Next, we calculate the eigenvalues and eigenvectors of the covariance matrix which represent the new magnitude of the feature vectors in the transformed vector space and their corresponding directions respectively. 次に、変換ベクトル空間における特徴ベクトルの新たな大きさを表す共分散行列の固有値と固有ベクトルとその対応する方向を計算する。 0.81
The eigenvalues quantify the variance of all the vectors as we are dealing with the covariance matrix. 固有値は、共分散行列を扱うすべてのベクトルの分散を定量化する。 0.65
If an eigenvector has high valued eigenvectors, that means that it has high variance and contains various important information about the dataset. 固有ベクトルが固有ベクトルが高い場合、それは分散度が高く、データセットに関する様々な重要な情報を含んでいることを意味する。
訳抜け防止モード: 固有ベクトルが高値の固有ベクトルを持つなら 分散度が高く、データセットに関する様々な重要な情報を含んでいる。
0.77
On the other hand, eigenvectors will small eigenvalues contain very small information about the dataset. 一方、固有ベクトルは、データセットに関する非常に小さな情報を含む小さな固有値となる。 0.71
covariance matrix = 1 N 共分散行列 = 1N 0.76
x(j) × (x(j))T x(j) × (x(j))T 0.85
(3) N(cid:88) (3) n(cid:88) 0.81
j=1 Hence the pth complete principal component of a data vector x(j) in the transformed coordinates can be allocated a score t(p) = x(j) × w(p) where w(p) is the pth eigenvector of the covariance matrix of x(j). j=1 したがって、変換座標におけるデータベクトル x(j) の p 番目の完全主成分はスコア t(p) = x(j) × w(p) を割り当てることができる(ここで w(p) は x(j) の共分散行列の p 番目の固有ベクトルである)。 0.72
Therefore the full PCA decomposition of the vector X can be represented as T = X × W , where W is the eigenvector of the covariance matrix. したがって、ベクトル X の完全な PCA 分解は T = X × W と表すことができ、W は共分散行列の固有ベクトルである。 0.82
Now, we need to select m-number of eigenvalues from these N eigenvectors by maximizing the variance of the preserved original data while reducing the total square reconstruction error. 現在、保存された元のデータのばらつきを最大化し、全体の2乗再構成誤差を減らし、これらのN固有ベクトルからm個の固有値を選択する必要がある。 0.59
Next, we calculate the Cumulative Explained Variance (CEV) which is the sum of variances (information) containing in the top m principal components. 次に、トップm主成分に含まれる分散(情報)の和である累積説明分散(CEV)を計算する。
訳抜け防止モード: 次に、CEV(Cumulative Explained Variance)を計算します。 は、トップ m の主成分に含まれる分散(情報)の和である。
0.73
Then we set a threshold value above which, the eigenvalues will be considered as useful and the rest will be discarded as unimportant features. 次に、上記のしきい値を設定し、固有値を有用とみなし、残りの値を重要でない特徴として捨てる。 0.70
For our experiment we have set the threshold value to 99, meaning that we have kept 99% of the variance of the data retained in the reduced feature vector. 実験では、しきい値を99に設定した。つまり、削減された特徴ベクトルに保持されたデータのばらつきの99%を保持できた。 0.74
As different CNN extracts features of different modalities, the number of selected features after PCA and GWO are different based on the feature distribution in those feature sets. 異なるCNNが異なるモダリティの特徴を抽出するので、PCAとGWOの後に選択された特徴の数は、それらの特徴集合の特徴分布に基づいて異なる。 0.74
The pseudo-code of dimensionality reduction using PCA is shown in Algo- PCAを用いた次元減少の擬似符号をAlgoで示す- 0.74
rithm 1. rithm 1 である。 0.65
3.4 Grey Wolf Optimizer 3.4グレイウルフオプティマイザ 0.70
Grey Wolf Optimization (GWO) [30] is a nature-inspired meta-heuristic optimization algorithm that mimics the leadership hierarchy of Grey Wolf (Canis lupus) and their hunting process for the optimization. Grey Wolf Optimization (GWO) [30] は、Grey Wolf (Canis lupus) のリーダーシップ階層を模倣した自然に着想を得たメタヒューリスティック最適化アルゴリズムである。
訳抜け防止モード: Grey Wolf Optimization (GWO ) [ 30 ] is a nature - inspired meta - heuristic optimization algorithm that that Grey Wolf(Canis lupus )のリーダーシップ階層と、最適化のための狩猟過程を模倣する。
0.90
Four types of GWO agents are deployed for simulation of the optimization algorithm named alpha, beta, delta, and omega. 4種類のGWOエージェントがアルファ,ベータ,デルタ,オメガという最適化アルゴリズムのシミュレーションのためにデプロイされる。 0.78
They mimic the three-step hunting methods of the grey wolf: finding the prey, encircling them, and finally attacking them for the sake of optimization. 彼らは灰色のオオカミの3段階の狩猟法を模倣し、獲物を見つけ、それを囲み、最終的に最適化のために攻撃する。 0.70
英語(論文から抽出)日本語訳スコア
11 Algorithm 1: Pseudo-code for Principal Component Analysis 11 アルゴリズム1:主成分分析のための擬似コード 0.82
define function: PCA Input: Feature set X of dimension d 関数を定義する: PCA 入力:次元 d の特徴集合 X 0.90
Compute Co-variance matrix Π while (i≤ d) do 計算共分散行列は (i≤ d) が成り立つ 0.82
while (j ≤ d) do 一方 (j ≤ d) は 0.69
µi ←− sample mean of feature i µj ←− sample mean of feature j σij = 1 n 特徴量 i μj のサンプル平均 j σij = 1 n のサンプル平均 0.62
i − µi)(xk i − μi)(xk) 0.89
j − µj) n(cid:80) j − μj) n(cid:80) 0.91
k=1 (xk j=j+1 k=1 (xk) j=j+1 0.60
end while i = i + 1 end while decompose π into eigenvalues and eigenvectors calculate cumulative explained variance (CEV) if (CEV≥ threshold) then end while i = i + 1 end while π を固有値に分解し、固有ベクトルは累積説明分散 (cev) if (cev≥ threshold) を計算する。 0.66
Construct projection matrix W end if transform input X using W obtain k-dimensional feature subspace X(cid:48) return X(cid:48) 構成射影行列W W を用いた変換入力 X が k 次元特徴部分空間 X(cid:48) を得ると X(cid:48) を返す。 0.65
英語(論文から抽出)日本語訳スコア
12 The grey wolves follow the leadership of the alpha wolf, which is the topmost category of their strict social hierarchy. 12 灰色のオオカミは、その厳格な社会的階層の最上位のカテゴリーであるアルファオオカミのリーダーシップに従っている。 0.78
The alpha wolf is not necessarily the strongest and the fittest ones, but they can maintain the discipline of the whole pack. アルファウルフは必ずしも最強かつ最も適したものではないが、パック全体の規律を維持することができる。 0.57
The major decisions are taken by the alpha wolves but often accompanied by the subordinates, the beta wolf. 主要な決定はアルファオオカミによってなされるが、しばしば部下であるベータオオカミが伴っている。 0.63
They are the next lower level of wolves in their social hierarchy and convey the decisions o the alpha to the lower levels of wolves. 彼らは社会的階層において次の低いレベルのオオカミであり、その決定をアルファから低いレベルのオオカミに伝達する。 0.71
They are generally the fittest candidates for alpha if the alpha becomes old or weak and plays a major role in maintaining the pack as a whole. 一般にアルファが古くなったり弱くなったりすると最も適した候補であり、パック全体の維持に重要な役割を果たしている。 0.70
The next level of wolves is called delta and they play a very major role in decision-making and other important activities of the pack. 次のレベルのオオカミはデルタと呼ばれ、決定やパックの重要な活動において非常に重要な役割を果たす。 0.65
The last and the least important category of the pack is named omega and they often play the role of scapegoat in society. パックの最後の、そして最も重要なカテゴリーはオメガと呼ばれ、しばしば社会におけるスケープゴートの役割を担っている。 0.65
Thus the complete pack is formed based on dominance hierarchy. したがって、完全なパックは支配階層に基づいて形成される。 0.63
The mathematical model for the steps of optimization that mimics their hunting process is described below. 探索過程を模倣する最適化段階の数学的モデルについて, 以下に述べる。 0.78
Social Hierarchy Similar to the social hierarchy of grey wolf, the optimizer allocates the three fittest solutions as alpha, beta, and delta and the rest of the search agents are bound to arrange them and adjust accordingly as the parameters of the alpha, beta, and delta wolves. 社会的階層 灰色のオオカミの社会的階層と同様に、オプティマイザは最も適した3つのソリューションをアルファ、ベータ、デルタとして割り当て、他の探索エージェントはそれらをアレンジし、アルファ、ベータ、デルタオカミのパラメータとして調整する。 0.66
These three wolves are followed by the omega wolves. この3匹のオオカミはオメガオオカミに続きます。 0.51
Encircling the Prey (Optimal Solution) To mathematically represent the encircling of prey, Equations 4, and 5 are used where t is the present iteration and (cid:126)C and (cid:126)A are the coefficient vectors, (cid:126)xp indicates the vector position of the prey and (cid:126)x indicates the vector position of the grey wolf. 餌(最適解)を囲む 餌の囲みを数学的に表現するために、方程式 4 と 5 は t が現在の反復であり、 (cid:126)C と (cid:126)A が係数ベクトルであり、 (cid:126)xp は餌のベクトル位置を示し、 (cid:126)x は灰色の狼のベクトル位置を示す。 0.79
(cid:126)D = | (cid:126)C × (cid:126)xp(t) − (cid:126)x(t)| (cid:126)D = | (cid:126)C × (cid:126)xp(t) − (cid:126)x(t)| 0.92
(cid:126)x(t + 1) = (cid:126)xp(t) − (cid:126)A × (cid:126)D (cid:126)x(t + 1) = (cid:126)xp(t) − (cid:126)A × (cid:126)D 0.92
(4) (5) The expression for (cid:126)A and (cid:126)C areas in Equations 6 and 7 respectively, where (cid:126)r1 and (cid:126)r2 are the random valued vectors between 0 and 1 inclusive and the value of (cid:126)a decreases from 2 to 0 linearly with increase in iteration. (4) (5) 方程式 6 と 7 における (cid:126)A および (cid:126)C 領域の式は、 (cid:126)r1 と (cid:126)r2 が 0 と 1 の間のランダム値ベクトルであり、 (cid:126)a の値は反復の増加に伴い 2 から 0 に減少する。 0.85
The two random variables (cid:126)r1 and (cid:126)r2 allow a grey wolf agent to reach any position between the points. 2つの確率変数 (cid:126)r1 と (cid:126)r2 により、グレイウルフエージェントは点間の任意の位置に到達することができる。 0.63
The agents of the grey wolf algorithm can position themselves around the fittest solution by adjustment of the value of (cid:126)C and (cid:126)A. 灰色のオオカミアルゴリズムのエージェントは、(cid:126)Cと(cid:126)Aの値を調整することで、最も適した解の周囲に自分自身を配置することができる。 0.58
(cid:126)A = 2 × (cid:126)a × (cid:126)r1 − (cid:126)a (cid:126)A = 2 × (cid:126)a × (cid:126)r1 − (cid:126)a 0.83
(cid:126)C = 2 × (cid:126)r2 (cid:126)c = 2 × (cid:126)r2 0.82
(6) (7) The same is applicable for n-dimensional optimization where the grey wolf agents move along the hyper-sphere or hyper-cubes around the fittest solution obtained. (6) (7) 灰色オオカミのエージェントが最も適した溶液の周囲の超球面や超キューブに沿って移動するn次元最適化にも適用できる。 0.78
英語(論文から抽出)日本語訳スコア
Reaching the Optimal Solution In real life, grey wolves hunt for their prey being led by the alpha who is accompanied by beta and delta wolves and the other wolves follow their instructions. 最適解を得る 現実では、灰色のオオカミは、ベータオカミとデルタオカミを伴い、他のオカミが指示に従うアルファに導かれる餌を探します。
訳抜け防止モード: 実生活における最適な解決策に到達します 灰色のオオカミは、alpha whoに率いられた獲物を狩る ベータとデルタオオカミが伴います 他のオオカミは指示に従います
0.65
To simulate this hunting principle, we allow some random valued agents and find their fitness and consider the three most accurate results as alpha, beta, and delta as in abstract search space we have no idea about the position of the agents and the prey. この探索の原理をシミュレートするために、ランダムに評価されたエージェントを許可し、それらの適合性を見つけ、最も正確な3つの結果をアルファ、ベータ、デルタとして、抽象的な探索空間として考える。 0.62
The rest of the agents including the omega wolves are bound to change their positions and orientations according to the three best wolf agents. オメガオオカミを含む他のエージェントは、3つの優れたオオカミのエージェントに従って、その位置と向きを変える。 0.57
13 Dα = | (cid:126)C1 × (cid:126)xα − (cid:126)x| 13 Dα = | (cid:126)C1 × (cid:126)xα − (cid:126)x| 0.80
Dβ = | (cid:126)C2 × (cid:126)xβ − (cid:126)x| Dβ = | (cid:126)C2 × (cid:126)xβ − (cid:126)x| 0.76
Dδ = | (cid:126)C3 × (cid:126)xδ − (cid:126)x| Dδ = | (cid:126)C3 × (cid:126)xδ − (cid:126)x| 0.76
(cid:126)x1 = (cid:126)xα − (cid:126)A1 × (cid:126)Dα (cid:126)x1 = (cid:126)xα − (cid:126)A1 × (cid:126)Dα 0.74
(cid:126)x2 = (cid:126)xβ − (cid:126)A2 × (cid:126)Dβ (cid:126)x2 = (cid:126)xβ − (cid:126)A2 × (cid:126)Dβ 0.74
(cid:126)x3 = (cid:126)xδ − (cid:126)A3 × (cid:126)Dδ (cid:126)x3 = (cid:126)xδ − (cid:126)A3 × (cid:126)Dδ 0.74
(cid:126)x(t + 1) = (cid:126)x(t + 1) = 1.00
(cid:126)x1 + (cid:126)x2 + (cid:126)x3 (cid:126)x1 + (cid:126)x2 + (cid:126)x3 0.74
3 (8) (9) (10) 3 (8) (9) (10) 0.85
(11) (12) (13) (11) (12) (13) 0.85
(14) The search agents update their position by these equations, however, the final position of the agents are not predefined, rather they are the random positions according to the position of the alpha, beta, and delta agents and within a certain circle which is determined by the position of the three best-fit solutions. (14) 探索エージェントはこれらの方程式によってそれらの位置を更新するが、エージェントの最終位置は事前に定義されておらず、アルファ、ベータ、デルタエージェントの位置に応じてランダムな位置であり、3つの最適解の位置によって決定される特定の円内にある。 0.80
Exploiting the Prey Grey wolves encircle their prey until the prey stops movement and this freezing the prey is known as exploiting. 獲物を産むオオカミは、獲物の動きが止まるまで獲物を取り囲み、この凍結は搾取として知られている。
訳抜け防止モード: 獲物が動くまで獲物を取り囲む獲物グレイオオカミの爆発 この凍結した獲物は「搾取」と呼ばれています
0.57
In the mathematical model, the value of (cid:126)a is decreased with the agents approaching the prey, and hence the value of (cid:126)A is modified further. 数学的モデルでは、(cid:126)aの値は獲物に近づくエージェントによって減少し、(cid:126)Aの値はさらに修正される。 0.79
The fluctuation of (cid:126)A is stopped as the value of (cid:126)A changes from (cid:126)−2a to (cid:126)+2a. (cid:126)aの変動は、(cid:126)−2aから(cid:126)+2aへの変化として停止される。 0.79
The value of (cid:126)a changes from 2 to 0 with the increase in iterations. cid:126)aの値はイテレーションの増加とともに2から0に変化する。 0.84
The search agents can take any position between their current position and the position of the prey as the alpha, beta, and delta wolves approach the prey for hunting. 探索エージェントは、アルファ、ベータ、デルタオオカミが狩猟のために獲物に近づくと、現在の位置と獲物の位置の間の任意の位置を取ることができる。 0.67
Exploring for the prey The grey wolf agents diverge in search of prey and they finally converge for attacking the prey. 獲物を探索する 灰色のオオカミのエージェントは獲物を探索するために分岐し、最終的に獲物を攻撃するために収束する。
訳抜け防止モード: 獲物の探索 灰色のオオカミのエージェントは獲物を捜すために発散する そして最後には 獲物を襲うために収束する
0.64
In mathematical modelling, this phenomenon is regulated by the value of (cid:126)A; if the value of (cid:126)A is greater than 1 or less than −1, the grey wolf agents diverge from each other and find for some 数学的モデリングにおいて、この現象は (cid:126)A の値によって制御される; (cid:126)A の値が 1 より大きい場合、灰色のオオカミのエージェントは互いに分岐し、いくつかのものを見つける。 0.73
英語(論文から抽出)日本語訳スコア
14 Fig. 3: Flowchart showing the workflow of the Grey Wolf Optimization algorithm used in the proposed framework. 14 フィギュア。 3: 提案フレームワークで使用されているGrey Wolf Optimizationアルゴリズムのワークフローを示すFlowchart。 0.71
英語(論文から抽出)日本語訳スコア
more suitable prey. However, if (cid:126)A has a value between −1 and +1, the agents converge towards the prey. もっと適切な獲物だ しかし、(cid:126)a が −1 から +1 の値を持つ場合、エージェントは獲物に向かって収束する。 0.68
The overall pseudo-code of the GWO algorithm is shown in Algorithm 2 and gwoアルゴリズムの全体的な擬似コードはアルゴリズム2で示され、 0.70
the flowchart for the algorithm is shown in Figure 3. アルゴリズムのフローチャートは図3に示されます。 0.72
15 Algorithm 2: Pseudo-code for the Grey Wolf Optimizer for feature selection. 15 アルゴリズム2: 特徴選択のためのGrey Wolf Optimizerのための擬似コード。 0.80
define function: GWO Input: Number of Search Agents: n Maximum number of iterations: M AX IT ER definition function: GWO Input: Number of Search Agents: n maximum number of iterations: M AX IT ER 0.81
Initialize the GWO population Xi ∀i = 1, 2, 3, ...., n Initialize a, A, and C // According to Equations 6,7 Calculate the fitness of each search agent Xα = Alpha wolf (Best search agent) Xβ = Beta wolf (Second best search agent) Xδ = Delta wolf (Third best search agent) 初期化 gwo の人口 xi = 1, 2, 3, ...., n 初期化 a, a, c // 方程式 6,7 に従って各探索エージェント xα = alpha wolf (best search agent) xβ = beta wolf (second best search agent) xδ = delta wolf (third best search agent) の適合性を計算する。 0.88
while t < M AX IT ER do t < M AX IT ER が行う 0.73
for each search agent do 検索エージェントごとに 0.60
Update position of current search agent // According to Equation 5 サーチエージェントの更新位置 // 方程式5による 0.72
end for Update a, A, and C Calculate the fitness of each search agent Update Xα, Xβ, Xδ // According to Equations 11, 12 & 13 t = t + 1 end while return Xα Update a, A, C の各検索エージェント Update Xα, Xβ, Xδ // Equations 11, 12 & 13 t = t + 1 end に従って、Xα を返す。 0.76
3.5 Classification After optimization, the final step is to fit the selected features to the classifier for the classification task. 3.5分類 最適化後の最終ステップは、選択した特徴を分類タスクの分類器に適合させることである。 0.74
Due to a large number of features in some cases, we used incremental learning where a small batch of the dataset is selected for training the classifier and the loop over all the dataset and continue training until we reach convergence. 多くの場合、多くの機能があるため、データセットの小さなバッチを選択して、分類器とすべてのデータセットのループをトレーニングし、収束するまでトレーニングを継続するインクリメンタル学習を使用しました。 0.67
This is fast and computationally efficient. これは高速で計算効率が良い。 0.71
We used an SVM classifier with the ‘RBF’ kernel for the multi-class classification task. 我々は,マルチクラス分類タスクに‘RBF’カーネル付きSVM分類器を用いた。 0.87
Support Vector Machine SVM [47] is a supervised learning model, which, in a set of training examples, properly labelled with different classes, add new examples to each class making a complete non-probabilistic binary classifier out of this SVM, and is associated with some typical learning algorithms which Support Vector Machine SVM[47]は教師付き学習モデルであり、一連のトレーニング例において、異なるクラスで適切にラベル付けされ、SVMから完全に確率的でないバイナリ分類子を作る各クラスに新しいサンプルを追加し、典型的な学習アルゴリズムと関連付けられている。 0.83
英語(論文から抽出)日本語訳スコア
16 Algorithm 3: Pseudo-code for overall workflow. 16 アルゴリズム3:ワークフロー全体の擬似コード。 0.80
Input: Raw RGB images: IRGB 入力:生のrgb画像:irgb 0.73
fi=deep features extracted from ith CNN; i = 1, 2, 3, 4 fc = concat(f1, f2, . i = 1, 2, 3, 4 fc = concat(f1, f2, ...) から抽出した fi=deep 特徴。 0.79
. . , fi);i = 1, 2, 3, 4 // concatenation of features FP CA = P CA(fc) // Using algorithm 1 FGW O = GW O(FP CA) // Using Algorithm 2 train-test split→ trainFGW O , testFGW O clf = classif ier.f it(trainFGW O ) // Train SVM Classifier predicted = clf.predict(testFGW O ) // Make predictions on test set Compare predictions and labels and evaluate performance . . FP CA = P CA(fc) // using algorithm 1 FGW O = GW O(FP CA) // Using Algorithm 2 train-test split→ trainFGW O , testFGW O clf = classif ier.f it(trainFGW O ) // Train SVM Classifier predict = clf.predict(testFGW O ) // テストセットの予測とラベルを比較し、パフォーマンスを評価する。 0.82
analyse the data, specifically used for regression and classification tasks. データを分析し、特に回帰と分類タスクに使用する。 0.76
SVM model representation of the training samples in the feature plane is such that a separation between the examples belonging to different classes becomes so prominent, that a curve can be fit in that space between two classes which maintain maximum distances from every point of each class and SVM fits that curve. 特徴平面におけるトレーニングサンプルのSVMモデル表現は、異なるクラスに属する例の分離が非常に顕著になり、各クラスの各点から最大距離を維持する2つのクラスの間の空間に曲線が適合し、SVMはその曲線に適合する。 0.82
4 Results and Discussion Table 2: Reduction in feature dimension and improvements in training time after principal component analysis on the Herlev dataset 4 結果と議論 表2:herlevデータセットにおける主成分分析後の特徴次元の削減とトレーニング時間の改善 0.81
Model used for feature extraction 使用するモデル 特徴抽出 0.78
No. of features (before PCA) いいえ。 PCA以前の)特徴の 0.77
No. of features Reduction in いいえ。 特徴は 削減 0.62
Improvement in (after PCA) 改良 (PCA以降) 0.63
feature dimension (%) average training time (%) 特徴次元(%) 平均訓練時間(%) 0.78
ResNet-50 [19] VGG-16 [35] ResNet-50[19]VGG-16[35] 0.76
DenseNet-121 [21] Inception v3 [36] DenseNet-121[21]開始v3[36] 0.68
ResNet-50+VGG-16 ResNet-50+VGG-16 0.29
DenseNet-121+Inception v3 DenseNet-121+Inception v3 0.44
ResNet-50+VGG-16+ ResNet-50+VGG-16+ 0.26
DenseNet-121+Inception v3 DenseNet-121+Inception v3 0.44
100353 25088 50177 131073 125441 181250 100353 25088 50177 131073 125441 181250 0.85
306691 383 364 330 325 456 687 306691 383 364 330 325 456 687 0.85
796 99.62 98.55 99.34 99.75 99.63 99.62 796 99.62 98.55 99.34 99.75 99.63 99.62 0.64
99.74 88.425 85.215 81.449 84.228 80.221 82.694 99.74 88.425 85.215 81.449 84.228 80.221 82.694 0.51
85.737 After extracting the features from the dataset using the CNN architectures said in Section 3, and the features were concatenated. 85.737 第3節で述べたcnnアーキテクチャを使用してデータセットから特徴を抽出すると、それらの特徴が連結された。
訳抜け防止モード: 85.737 CNNアーキテクチャを使ってデータセットから特徴を抽出した後、セクション3で述べた。 特徴は統合されました
0.63
We then use PCA (which retained 99% of the variance of the data) for the reduction in the dimensionality of the feature space and improvements in feature qualities respectively. 次に,PCA(データのばらつきの99%を保持)を用いて,特徴空間の次元性の低減と特徴量の改善を行った。 0.77
Table 2 shows the statistics of reduction in feature dimensionality as well as the improvement of training time after this for the Herlev dataset. 表2は、特徴次元の縮小の統計と、それに続くherlevデータセットのトレーニング時間の改善を示している。 0.73
Then, we used the GWO algorithm and finally split the dataset and calculated the accuracy score for the training, validation, and testing sets. そして、GWOアルゴリズムを用いてデータセットを分割し、トレーニング、検証、テストセットの精度スコアを計算した。
訳抜け防止モード: そして、GWOアルゴリズムを使い、最後にデータセットを分割しました。 トレーニング,検証,テストセットの精度スコアを計算した。
0.66
The overall workflow is shown in the form of pseudo-code in Algorithm 3. ワークフロー全体はアルゴリズム3の擬似コード形式で表示されます。 0.74
The results of our experiments are discussed in this section. 本項では,実験結果について述べる。 0.67
英語(論文から抽出)日本語訳スコア
17 (a) Herlev Pap Smear dataset 17 (a)Herlev Pap Smear データセット 0.87
(b) Mendeley LBC dataset b) Mendeley LBC データセット 0.81
(c) SIPaKMeD Pap Smear dataset (c)SIPaKMeD Pap Smear データセット 0.90
Fig. 4: ROC curves obtained by the proposed method for the three datasets: (a) Herlev Pap Smear dataset (b) Mendeley LBC dataset and (c) SIPaKMeD Pap Smear dataset. フィギュア。 4:提案手法により得られたROC曲線は, (a) Herlev Pap Smear データセット (b) Mendeley LBC データセットと (c) SIPaKMeD Pap Smear データセットである。 0.63
英語(論文から抽出)日本語訳スコア
18 The metrics used for performance evaluation of the classification task for the multi-class problem is calculated based on Equations 15, 16, 17, 18 which are derived from a confusion matrix M . 18 混同行列Mから導出される方程式15,16,17,18に基づいて、多クラス問題に対する分類タスクの性能評価に用いるメトリクスを算出する。 0.80
(15) (16) (17) (15) (16) (17) 0.85
(18) Accuracy = i=1 M ii (18) 正確さ= i=1M 0.80
j=1 M ij i=1 j=1mij i=1 0.68
(cid:80)N (cid:80)N (cid:80)N M ii(cid:80)N M ii(cid:80)N (cid:80)N (cid:80)N (cid:80)N M ii(cid:80)N M ii(cid:80)N 0.84
j=1 M ij P recisioni = j=1mij p のrecisioni = 0.79
j=1 M ji Recalli = j=1M Recalli = 0.81
F 1 − Scorei = F 1 − Scorei = 0.85
2 1 P recisioni 2 1 P recisioni 0.85
+ 1 Recalli To cross-validate the results of the classification task on different datasets and different features, we performed an AUC-ROC test on different datasets. + 1 レカリ 異なるデータセットと異なる特徴の分類タスクの結果を相互に検証するため、異なるデータセットのAUC-ROCテストを実施した。 0.71
The ROC (Receiver Operating Characteristics) curve is an important analyzing tool for validating the clinical findings of our experiment. ROC(Receiver Operating Characteristics)曲線は,臨床所見を検証するための重要な解析ツールである。 0.74
The different line segments in the OVA (One Vs. All) ROC represent different classes stating that how good the features and the classifier performance are for classifying the different classes which can be broadly categorized in normal and infected cases. ova (one vs. all)の異なる行セグメントは、通常のケースと感染したケースで広く分類できる異なるクラスを分類するのに、機能と分類器のパフォーマンスがいかに優れているかを示す、異なるクラスを表している。
訳抜け防止モード: OVA (One Vs . All ) ROC の異なる行セグメントは、機能と分類器のパフォーマンスがどの程度優れているかを示す異なるクラスを表す。 正常なケースと感染したケースで広く分類できる異なるクラスを分類すること。
0.86
It represents the graphical analysis of the TPR (True Positive Rate) against the FPR (False Positive Rate) as the two operating characteristics criterion of the classifier based on the features selected. これは、選択された特徴に基づいて、分類器の2つの動作特性基準として、FPR(False Positive Rate)に対するTPR(True Positive Rate)のグラフィカル解析を表す。 0.82
A false-positive result is a case when data of a healthy or uninfected class is predicted as an unhealthy or infected case by a classifier and it’s a major drawback of the classification task. 偽陽性の結果は、健康または未感染のクラスのデータが、分類器によって不健康または感染のケースとして予測され、それが分類タスクの大きな欠点である場合である。 0.69
This is reciprocated by the points lying far above the diagonal line of the ROC curve suggesting that the TPR is significantly high as compared to FPR. これは、ROC曲線の対角線よりはるかに上に位置する点から、TPRがFPRに比べてかなり高いことを示す。 0.69
Another important feature for analyzing the classification result is the AUC (Area Under Curve) of the ROC curve which was computed considering the 97% of the confidence interval. 分類結果を解析するためのもう1つの重要な特徴は、信頼区間の97%を考慮して計算されたROC曲線のAUC(Area Under Curve)である。 0.81
The analysis using the AUC-ROC curves for different datasets and different features are discussed further. 異なるデータセットと異なる特徴に対するAUC-ROC曲線を用いた解析について述べる。 0.76
4.1 Results on Herlev Pap Smear Dataset 4.1 Herlev Pap Smear データセットの結果 0.79
The results obtained on different experiments on the Herlev Pap Smear dataset are shown in Figure 5. Herlev Pap Smearデータセットの異なる実験で得られた結果は図5に示す。 0.82
The best classification results observed this dataset was achieved by merging the feature extracted from ResNet-50 and VGG-16 models, which gave the performance metrics as follows: Accuracy = 98.32%, Precision = 98.66%, Recall = 97.65% and F1-score = 98.12%. このデータセットが観測した最も優れた分類結果は、ResNet-50とVGG-16モデルから抽出した機能をマージすることで達成され、精度が98.32%、精度が98.66%、リコールが97.65%、F1スコアが98.12%である。 0.67
英語(論文から抽出)日本語訳スコア
19 Fig. 5: Results on the Herlev Pap Smear dataset 19 フィギュア。 5: Herlev Pap Smear データセットの結果 0.69
英語(論文から抽出)日本語訳スコア
20 Fig. 6: Results on the Mendeley LBC dataset 20 フィギュア。 6: Mendeley LBC データセットの結果 0.69
英語(論文から抽出)日本語訳スコア
4.2 Results on the Mendeley LBC Dataset 4.2 Mendeley LBC データセットの結果 0.86
The results obtained on different experiments on the Mendeley LBC dataset are shown in Figure 6. Mendeley LBCデータセットの異なる実験で得られた結果は図6に示す。 0.82
The best results on this dataset are obtained by merging features extracted from VGG-16, ResNet-50, Inception v3 and DenseNet121: Accuracy = 99.47%, Precision = 99.14%, Recall = 99.27% and F1-score = 99.20%. このデータセットの最良の結果は、vgg-16, resnet-50, inception v3, densenet121から抽出された特徴をマージすることで得られる:精度 = 99.47%、精度 = 99.14%、リコール = 99.27%、f1-score = 99.20%。 0.62
4.3 Results on SIPaKMeD Pap Smear dataset 4.3 SIPaKMeD Pap Smear データセットの結果 0.81
21 Fig. 7: Results on the SIPaKMeD Pap Smear Dataset 21 フィギュア。 7: SIPaKMeD Pap Smearデータセットの結果 0.69
The results obtained on different experiments on the SIPaKMeD Pap Smear dataset are shown in Figure 7. SIPaKMeD Pap Smearデータセットの異なる実験で得られた結果は図7に示す。 0.82
The best results on the dataset are obtained by merging features extracted from VGG-16 and ResNet-50: Accuracy = 97.87%, Precision = 98.56%, Recall = 99.12% and F1-score = 98.89%. データセットの最良の結果は、vgg-16とresnet-50から抽出された特徴をマージすることで得られる:精度 = 97.87%、精度 = 98.56%、リコール = 99.12%、f1-score = 98.89%。 0.61
4.4 Comparison with Existing Literature 4.既存文献との比較 0.64
Several models have been proposed in the literature for cervical cell classification as discussed in Section 2. 第2節で述べたように、頚椎細胞分類の文献においていくつかのモデルが提案されている。 0.62
Our proposed work and the results achieved are 私たちの提案する研究と成果は 0.76
英語(論文から抽出)日本語訳スコア
22 Table 3: Accuracies and Losses on training, validation and testing sets using both PCA and GWO on the three datasets dataset (all the accuracy measurements are in % and measured after 30 epochs) Training Accuracy 22 表3:3つのデータセットのpcaとgwoの両方を使用したトレーニング、検証、テストセットの精度と損失(すべての精度測定は%で、30エポック後の測定)
訳抜け防止モード: 22 表3:3つのデータセットのPCAとGWOの両方を用いたトレーニング・検証・テストセットの精度と損失(すべての精度測定は%) 30時間後 トレーニングの正確さを測定しました
0.85
Feature extractor model Validation Accuracy 特徴抽出器モデル 検証精度 0.79
Validation Accuracy Training Dataset 検証 精度 研修 データセット 0.66
Testing Testing Herlev テスト テスト ハーレフ 0.67
Pap Smear Mendeley パパ・スミア メンデリー 0.36
LBC SIPaKMeD Pap Smear LBC SIPaKMeD パパ・スミア 0.74
ResNet-50 [19] VGG-16 [35] ResNet-50[19]VGG-16[35] 0.76
DenseNet-121 [21] Inception v3 [36] DenseNet-121[21]開始v3[36] 0.68
ResNet-50+VGG-16 ResNet-50+VGG-16 0.29
DenseNet-121+Inception v3 DenseNet-121+Inception v3 0.44
ResNet-50+VGG-16+ ResNet-50+VGG-16+ 0.26
DenseNet-121+Inception v3 DenseNet-121+Inception v3 0.44
ResNet-50 [19] VGG-16 [35] ResNet-50[19]VGG-16[35] 0.76
DenseNet-121 [21] Inception v3 [36] DenseNet-121[21]開始v3[36] 0.68
ResNet-50+VGG-16 ResNet-50+VGG-16 0.29
DenseNet-121+Inception v3 DenseNet-121+Inception v3 0.44
ResNet-50+VGG-16+ ResNet-50+VGG-16+ 0.26
DenseNet-121+Inception v3 DenseNet-121+Inception v3 0.44
ResNet-50 [19] VGG-16 [35] ResNet-50[19]VGG-16[35] 0.76
DenseNet-121 [21] Inception v3 [36] DenseNet-121[21]開始v3[36] 0.68
ResNet-50+VGG-16 ResNet-50+VGG-16 0.29
DenseNet-121+Inception v3 DenseNet-121+Inception v3 0.44
ResNet-50+VGG-16+ ResNet-50+VGG-16+ 0.26
DenseNet-121+Inception v3 DenseNet-121+Inception v3 0.44
97.77 96.36 97.89 96.33 98.77 97.91 97.77 96.36 97.89 96.33 98.77 97.91 0.43
98.3 96.88 97.91 97.16 97.5 99.04 98.06 98.3 96.88 97.91 97.16 97.5 99.04 98.06 0.51
99.58 96.85 96.71 96.31 96.02 98.48 97.32 99.58 96.85 96.71 96.31 96.02 98.48 97.32 0.51
Loss 0.026 0.031 0.02 0.032 0.011 0.026 Loss 0.026 0.031 0.02 0.032 0.011 0.026 0.47
0.018 0.066 0.051 0.061 0.058 0.039 0.044 0.018 0.066 0.051 0.061 0.058 0.039 0.044 0.51
0.03 0.028 0.03 0.035 0.039 0.014 0.02 0.03 0.028 0.03 0.035 0.039 0.014 0.02 0.51
96.33 94.21 97.01 95.17 98.00 96.01 96.33 94.21 97.01 95.17 98.00 96.01 0.43
97.95 96.11 96.39 96.15 97.05 97.96 96.49 97.95 96.11 96.39 96.15 97.05 97.96 96.49 0.51
98.88 96.77 94.02 96.04 95.91 97.55 95.39 98.88 96.77 94.02 96.04 95.91 97.55 95.39 0.51
96.66 Loss 0.032 0.109 0.024 0.098 0.019 0.031 96.66 Loss 0.032 0.109 0.024 0.098 0.019 0.031 0.53
0.021 0.071 0.068 0.07 0.06 0.054 0.067 0.021 0.071 0.068 0.07 0.06 0.054 0.067 0.51
0.043 0.049 0.071 0.058 0.06 0.041 0.066 0.043 0.049 0.071 0.058 0.06 0.041 0.066 0.51
0.051 96.55 95.56 96.61 95.32 98.32 97.62 0.051 96.55 95.56 96.61 95.32 98.32 97.62 0.51
98.06 96 97.56 96.32 97.2 98.64 97.02 98.06 96 97.56 96.32 97.2 98.64 97.02 0.63
99.47 96.03 95.26 96.12 95.78 97.87 96.33 99.47 96.03 95.26 96.12 95.78 97.87 96.33 0.51
Loss 0.028 0.081 0.024 0.094 0.016 0.027 Loss 0.028 0.081 0.024 0.094 0.016 0.027 0.47
0.019 0.079 0.059 0.071 0.061 0.054 0.064 0.019 0.079 0.059 0.071 0.061 0.054 0.064 0.51
0.04 0.048 0.059 0.046 0.055 0.034 0.044 0.04 0.048 0.059 0.046 0.055 0.034 0.044 0.51
96.92 0.025 96.92 0.025 0.59
96.46 0.042 96.46 0.042 0.59
Table 4: Comparison (ACC, in %) with standard optimization algorithms: PSO = Particle Swarm Optimization [25]; MVO = Mean Variance Optimization [16]; GWO = Grey Wolf Optimizer [30]; MFO = Moth Flame Optimization [28]; WOA = Whale Optimization Algorithm [29]; FFA = Firefly Algorithm [43]; BAT = Bat Optimization Algorithm [44]; GA = Genetic Algorithm [13, 20] Optimization Mendeley LBC Dataset Herlev Pap-smear Dataset SIPaKMeD 5-class Dataset Alogotithms ACC # of Features ACC 95.90 92.58 PSO 96.91 94.26 MVO 92.14 92.40 GWO 94.20 MFO 93.19 95.08 92.36 WOA 94.42 92.46 FFA 94.58 95.64 BAT 95.26 GA 98.23 PCA+GWO 99.47 98.32 Table 4: Comparison (ACC, in %) with standard optimization algorithms: PSO = Particle Swarm Optimization [25]; MVO = Mean Variance Optimization [16]; GWO = Grey Wolf Optimizer [30]; MFO = Moth Flame Optimization [28]; WOA = Whale Optimization Algorithm [29]; FFA = Firefly Algorithm [43]; BAT = Bat Optimization Algorithm [44]; GA = Genetic Algorithm [13, 20] Optimization Mendeley LBC Dataset Herlev Pap-smear Dataset SIPaKMeD 5-class Dataset Alogotithms ACC # of Features ACC 95.90 92.58 PSO 96.91 94.26 MVO 92.14 92.40 GWO 94.20 MFO 93.19 95.08 92.36 WOA 94.42 92.46 FFA 94.58 95.64 BAT 95.26 GA 98.23 PCA+GWO 99.47 98.32 0.92
ACC 90.14 90.48 89.98 90.58 90.58 89.56 90.21 95.43 97.87 ACC 90.14 90.48 89.98 90.58 90.58 89.56 90.21 95.43 97.87 0.45
1014 843 791 832 802 792 749 796 736 1014 843 791 832 802 792 749 796 736 0.85
920 720 810 803 843 715 857 724 762 920 720 810 803 843 715 857 724 762 0.85
992 764 807 851 847 820 762 784 796 992 764 807 851 847 820 762 784 796 0.85
# of Features # of Features #特徴 #特徴 0.58
英語(論文から抽出)日本語訳スコア
therefore compared with some of these models that used the same datasets to assess the reliability of the proposed framework and the results are tabulated in Table 5. したがって、提案されたフレームワークの信頼性を評価するために同じデータセットを使ったいくつかのモデルと比較すると、結果は表5に表される。
訳抜け防止モード: ですから これらのモデルと比較すると 同じデータセットを使って 提案されたフレームワークの信頼性を 結果は表5にまとめられている。
0.82
No papers as of yet have been published that use the Mendeley LBC dataset, and thus we are unable to compare our method in that dataset. Mendeley LBCデータセットを使用する論文はまだ発表されていないので、そのデータセットでメソッドを比較することはできない。 0.73
23 Table 5: Comparison of the proposed method with existing literature 23 表5:提案手法と既存文献との比較 0.81
Dataset Method Genctav et al [18] データセット 方法 Genctav et al [18] 0.75
Herlev Pap Smear ハーレフ パパ・スミア 0.43
Bora et al [9] Win et al [40] Bora et al [9] Win et al [40] 0.85
Chankong et al [11] Chankong et al [11] 0.85
Proposed Method SIPaKMeD Pap Smear 提案方法 SIPaKMeD パパ・スミア 0.70
Win et al [40] Win et al [40] 0.85
Plissiti et al [34] Plissiti et al [34] 0.85
Proposed Method Results Precision: 88%±0.15 Recall: 93%±0.15 Accuracy: 96.51% Accuracy: 90.84% Accuracy: 93.78% 提案方法 結果 精度: 88%±0.15 リコール: 93%±0.15精度: 96.51%精度: 90.84%精度: 93.78% 0.74
Accuracy: 98.32% Precision: 98.66% 精度98.32%、精度98.66% 0.76
Recall: 97.65% リコール:97.65% 0.72
F1-score: 98.12% Accuracy: 94.09% f1-score:98.12%精度:94.09% 0.62
1. Deep Convolutional+SVM: 93.35%±0.62 2. 1. Deep Convolutional+SVM:93.35%±0.62。 0.74
Deep Fully Connected+SVM: 94.44%±1.21 Deep Fully Connected+SVM:94.44%±1.21 0.60
3. CNN: 95.35%±0.42 Accuracy: 97.87% Precision: 98.56% 3. cnn: 95.35%±0.42 精度: 97.87% 精度: 98.56% 0.75
Recall: 99.12% リコール:99.12% 0.68
F1-score: 98.89% F1スコア:98.89% 0.55
4.5 McNemar’s Statistical Test 4.5 McNemarの統計テスト 0.92
The McNemar’s statistical test has been performed in the present work, for the statistical analysis of the proposed classification framework. mcnemarの統計テストは,提案する分類枠組みの統計的解析のために,本研究で実施されている。 0.75
For this, the proposed model has been compared to the CNN models from which the features were extracted and used for the final classification. このため,提案モデルとCNNモデルを比較し,その特徴を抽出し,最終分類に利用した。 0.70
The results are shown in Table 6. 結果は表6に示されています。 0.76
To reject the null hypothesis that the two models are similar, the p − value from the McNemar’s test should remain below 5% (i.e., 0.05), and from the table, it can be seen that for every comparison case, the p− value < 0.05. 2つのモデルが似ているというヌル仮説を拒絶するには、マクネマールの検定による p − の値は 5% 以下でなければならない(すなわち 0.05)。
訳抜け防止モード: 2つのモデルが似ているというヌル仮説を拒絶する。 mcnemar テストの p − 値は 5 % 以下でなければならない(すなわち 0.05 )。 表から見て、すべての比較ケースにおいて、 p−値 < 0.05 である。
0.76
Thus, the null hypothesis can be rejected and it can be concluded that the proposed model is dissimilar to any of the feature extractor models and performs superior to them. したがって、ヌル仮説は否定可能であり、提案モデルがどの特徴抽出器モデルと異なっており、それらよりも優れていると結論付けることができる。 0.77
Thus statistical analysis of the proposed model justifies the reliability of the approach devised in this research. したがって,提案モデルの統計的解析は,本研究で考案されたアプローチの信頼性を正当化する。 0.74
5 Conclusions and Future Work 5 結論と今後の課題 0.80
The need for automation in the cervical cancer detection domain arises due to the high mortality rate throughout the close. 頸部がん検出領域における自動化の必要性は、クローズド全体を通して高い死亡率で生じる。 0.69
Motivated by this cause, we developed a fully automated detection framework that optimizes deep features for この原因から私たちは,詳細な機能を最適化する完全自動検出フレームワークを開発しました。 0.64
英語(論文から抽出)日本語訳スコア
24 Table 6: Results obtained from McNemar’s statistical test. 24 表6: McNemarの統計テストの結果。 0.72
For all three datasets, the proposed framework is compared to the CNN models whose features have been used. 3つのデータセットすべてに対して、提案されたフレームワークは、機能を使用したCNNモデルと比較される。 0.60
The p − value is less than 0.05 for every case and thus, the null hypothesis is rejected. p − の値はすべての場合 0.05 未満であり、従って null 仮説は否定される。 0.81
McNemar’s Test Performed with Herlev Pap Smear Mendeley LBC SIPaKMeD Pap Smear マクネマールがHerlev Pap Smear Mendeley LBC SIPaKMeD Pap Smearでテスト 0.64
p-value ResNet-50 VGG-16 p値 ResNet-50 VGG-16 0.61
DenseNet-121 Inception v3 DenseNet-121 開始 v3 0.58
0.0046 0.0001 0.0103 0.0007 0.0046 0.0001 0.0103 0.0007 0.45
0.0012 0.0211 0.0089 0.0061 0.0012 0.0211 0.0089 0.0061 0.45
0.0005 0.0007 0.0315 0.0100 0.0005 0.0007 0.0315 0.0100 0.45
classification. The two-level enhancement boosted the classification performance while simultaneously reducing the training time significantly. 分類。 2段階の強化により分類性能が向上し,同時にトレーニング時間が大幅に短縮された。 0.69
This research also explored the hybridization of multiple CNN-based deep features to extract more discriminating information from the dataset. 本研究は、データセットからより識別可能な情報を抽出するために、複数のcnnベースのディープ機能のハイブリッド化についても検討した。
訳抜け防止モード: この研究はまた、複数のcnnベースの深層特徴のハイブリダイゼーションについても研究した。 データセットからより多くの識別情報を抽出する。
0.54
An alternative way of feature selection is exalted in this research that uses Principal Component Analysis (PCA) and Grey Wolf Optimization (GWO). この研究では、主成分分析(PCA)とGrey Wolf Optimization(GWO)を用いて、機能選択の代替手法を抽出する。 0.77
The two-level feature reduction approach introduced in this paper leverages the advantages of both methods resulting in optimal feature set selection. 本論文で紹介された2段階特徴量削減手法は,両手法の利点を活かし,最適な特徴集合選択を実現する。 0.72
The proposed method achieves better results juxtaposed to end-to-end classification with CNN models, while simultaneously reducing the computation cost. 提案手法は,計算コストを同時に低減しつつ,CNNモデルによるエンドツーエンドの分類に近似したより良い結果を得る。 0.67
Very high classification accuracy of 99.47%, 98.32%, and 97.87% on the three publicly available benchmark datasets, namely Mendeley LBC, Herlev Pap Smear and SIPaKMeD Pap Smear datasets respectively tantamount to state-of-the-art methods. 非常に高い分類精度は99.47%、98.32%、97.87%であり、Mendley LBC、Herlev Pap Smear、SIPaKMeD Pap Smearの3つのベンチマークデータセットは、それぞれ最先端の手法に基づいている。 0.64
However, there is scope for further improvement by utilizing different classification models and using hybrid metaheuristic feature selection algorithms. しかし、異なる分類モデルを利用し、ハイブリッドメタヒューリスティックな特徴選択アルゴリズムを使用することで、さらなる改善が期待できる。
訳抜け防止モード: しかし、さらなる改善の余地がある。 異なる分類モデルと ハイブリッドメタヒューリスティックな特徴選択アルゴリズムを使います
0.75
This paper craved a path for further research in this field as well as multi-domain adaptation. 本稿は、この分野のさらなる研究とマルチドメイン適応の道を開くものである。 0.77
The proposed pipeline can be used as a test-bed for several classification problems, not only in biomedical applications but in other computer vision problems as well. 提案したパイプラインは、バイオメディカルアプリケーションだけでなく、他のコンピュータビジョン問題においても、いくつかの分類問題に対するテストベッドとして使用できる。 0.67
The feature selection can be further addressed by developing an end-to-end multi-objective hybrid optimization algorithm, that selects optimal feature set, where the objective function aims to increase the classification performance by selecting the least number of features, thereby reducing the computational cost simultaneously. この特徴選択は、最少特徴数を選択して分類性能を向上させることを目的とした最適な特徴セットを選択するエンドツーエンドの多目的ハイブリッド最適化アルゴリズムを開発し、計算コストを同時に低減することにより、さらに対処することができる。 0.77
Acknowledgements The work is supported by SERB (DST), Govt. 覚書 この作業はSERB(DST)、Govtによって支援されている。 0.48
of India (Ref. インド (Ref)。 0.70
no. EEQ/2018/000963). ダメよ EEQ/2018/000963)。 0.52
Conflict of interest The authors declare that they have no conflict of interest. 利害対立 著者たちは利害の衝突はないと宣言した。 0.53
英語(論文から抽出)日本語訳スコア
Bibliography [1] Akter L, Islam MM, Al-Rakhami MS, Haque MR, et al (2021) Prediction of cervical cancer from behavior risk using machine learning techniques. 書誌 [1] Akter L, Islamic MM, Al-Rakhami MS, Haque MR, et al (2021) 機械学習による頚部癌の行動リスクの予測 0.68
SN Computer Science 2(3):1–10 SN Computer Science 2(3):1-10 0.83
[2] AlMubarak HA, Stanley J, Guo P, Long R, Antani S, Thoma G, Zuna R, Frazier S, Stoecker W (2019) A hybrid deep learning and handcrafted feature approach for cervical cancer digital histology image classification. [2] AlMubarak HA, Stanley J, Guo P, Long R, Antani S, Thoma G, Zuna R, Frazier S, Stoecker W (2019) 頸部がんのデジタル組織学画像分類のためのハイブリッドディープラーニングと手作り機能アプローチ。 0.80
International Journal of Healthcare Information Systems and Informatics (IJHISI) 14(2):66–87 International Journal of Healthcare Information Systems and Informatics (IJHISI) 14(2):66-87 0.97
[3] Azaza A, Abdellaoui M, Douik A (2021) Off-the-shelf deep features for [3]Azaza A,Abdellaoui M,Douik A (2021)オフザシェルフの深い特徴 0.69
saliency detection. SN Computer Science 2(2):1–10 塩分検出 SN Computer Science 2(2):1-10 0.59
[4] Basak H, Kundu R (2020) Comparative study of maturation profiles of neural cells in different species with the help of computer vision and deep learning. 4] basak h, kundu r (2020) は, コンピュータビジョンと深層学習の助けを借りて, 異なる種における神経細胞の成熟プロファイルの比較研究を行った。 0.85
In: International Symposium on Signal Processing and Intelligent Recognition Systems, Springer, pp 352–366 In: International Symposium on Signal Processing and Intelligent Recognition Systems, Springer, pp 352–366 0.95
[5] Basak H, Rana A (2021) F-unet: A modified u-net architecture for segmentation of stroke lesion. 5] Basak H, Rana A (2021) F-unet: 脳卒中病変のセグメンテーションのためのu-netアーキテクチャ。 0.76
In: Computer Vision and Image Processing, Springer Singapore, pp 32–43 In: Computer Vision and Image Processing, Springer Singapore, pp 32–43 0.97
[6] Basak H, Ghosal S, Sarkar M, Das M, Chattopadhyay S (2020) Monocular depth estimation using encoder-decoder architecture and transfer learning from single rgb image. 6] Basak H, Ghosal S, Sarkar M, Das M, Chattopadhyay S (2020) エンコーダデコーダアーキテクチャを用いた単眼深度推定と単一のrgb画像からの伝達学習。 0.83
In: 2020 IEEE 7th Uttar Pradesh Section International Conference on Electrical, Electronics and Computer Engineering (UPCON), IEEE, pp 1–6 In: 2020 IEEE 7th Uttar Pradesh Section International Conference on Electrical, Electronics and Computer Engineering (UPCON), IEEE, pp1-6 0.90
[7] Basak H, Kundu R, Agarwal A, Giri S (2020) Single image super-resolution using residual channel attention network. [7] Basak H, Kundu R, Agarwal A, Giri S (2020) 残留チャネルアテンションネットワークを用いた単一画像超解像。 0.74
In: 2020 IEEE 15th International Conference on Industrial and Information Systems (ICIIS), IEEE, pp 219– 224 In: 2020 IEEE 15th International Conference on Industrial and Information Systems (ICIIS), IEEE, pp 219–224 0.88
[8] Basak H, Hussain R, Rana A (2021) Dfenet: A novel dimension fusion edge guided network for brain mri segmentation. [8] Basak H, Hussain R, Rana A (2021) Dfenet:脳mriセグメンテーションのための新しい次元融合エッジガイドネットワーク。 0.75
arXiv preprint arXiv:210507962 [9] Bora K, Chowdhury M, Mahanta LB, Kundu MK, Das AK (2017) Automated classification of pap smear images to detect cervical dysplasia. arXiv preprint arXiv:210507962 [9] Bora K, Chowdhury M, Mahanta LB, Kundu MK, Das AK (2017) 頚椎異形成を検出するための乳頭スミア画像の自動分類。 0.84
Computer methods and programs in biomedicine 138:31–47 バイオメディシン138:31-47のコンピュータ手法とプログラム 0.59
[10] Byriel J (1999) Neuro-fuzzy classification of cells in cervical smears. 10] byriel j (1999) 頸髄塗抹細胞の神経-ファジー分類 0.62
Master’s master (複数形 masters) 0.48
Thesis, Technical University of Denmark: Oersted-DTU, Automation デンマーク工科大学論文:Oersted-DTU, Automation 0.76
[11] Chankong T, Theera-Umpon N, Auephanwiriyakul S (2014) Automatic cervical cell segmentation and classification in pap smears. 11]channkong t,theera-umpon n,auephanwiriyakul s (2014) papスメアにおける子宮頸部細胞の自動分割と分類 0.82
Computer methods and programs in biomedicine 113(2):539–556 バイオメディシン113(2):539-556のコンピュータ手法とプログラム 0.76
[12] Chattopadhyay S, Basak H (2020) Multi-scale attention u-net (msaunet): A modified u-net architecture for scene segmentation. 12] Chattopadhyay S, Basak H (2020) マルチスケール注意u-net (msaunet):シーンセグメンテーションのための改良u-netアーキテクチャ。 0.87
arXiv preprint arXiv:200906911 arXiv preprint arXiv:200906911 0.78
[13] De Jong KA (1975) Analysis of the behavior of a class of genetic adaptive 13] De Jong KA (1975) 遺伝子適応クラスの行動解析 0.64
systems. Tech. rep. システム。 技術だ 代表。 0.57
英語(論文から抽出)日本語訳スコア
26 [14] Deng J, Dong W, Socher R, Li LJ, Li K, Fei-Fei L (2009) Imagenet: A largescale hierarchical image database. 26 [14] Deng J, Dong W, Socher R, Li LJ, Li K, Fei-Fei L (2009) Imagenet: 大規模な階層画像データベース。 0.86
In: 2009 IEEE conference on computer vision and pattern recognition, Ieee, pp 248–255 2009年ieee conference on computer vision and pattern recognition, ieee, pp 248-255 参加報告 0.84
[15] Dey S, Das S, Ghosh S, Mitra S, Chakrabarty S, Das N (2020) SynCGAN: Using learnable class specific priors to generate synthetic data for improving classifier performance on cytological images. [15] Dey S, Das S, Ghosh S, Mitra S, Chakrabarty S, Das N (2020) SynCGAN: 学習可能なクラス固有の先行データを用いて、細胞画像の分類器性能を改善するために合成データを生成する。 0.83
In: Communications in Computer and Information Science, Springer Singapore, pp 32–42, URL https://doi.org/10.1 007/978-981-15-8697- 2_3 In: Communications in Computer and Information Science, Springer Singapore, pp 32–42, URL https://doi.org/10.1 007/978-981-15-8697- 2_3 0.56
[16] Erlich I, Venayagamoorthy GK, Worawat N (2010) A mean-variance optimization algorithm. 16] Erlich I, Venayagamoorthy GK, Worawat N (2010) 平均分散最適化アルゴリズム。 0.75
In: IEEE Congress on Evolutionary Computation, IEEE, pp 1–6 In: IEEE Congress on Evolutionary Computation, IEEE, pp 1-6 0.96
[17] Ferlay J, Colombet M, Soerjomataram I, Mathers C, Parkin D, Pi˜neros M, Znaor A, Bray F (2019) Estimating the global cancer incidence and mortality in 2018: Globocan sources and methods. [17]Ferlay J,Colombet M, Soerjomataram I, Mathers C, Parkin D, Pi sneros M, Znaor A, Bray F (2019) 2018年の世界がん発生率と死亡率の推定:Globocanの情報源と方法。 0.84
International journal of cancer 144(8):1941–1953 international journal of cancer 144(8):1941-1953 0.86
[18] Gen¸cTav A, Aksoy S, ¨ONder S (2012) Unsupervised segmentation and clas- 18]gen a, aksoy s, s (2012) unsupervised segmentation and clas- 0.71
sification of cervical cell images. 頸部細胞画像のシフィケーション。 0.66
Pattern recognition 45(12):4151–4168 パターン認識45(12):4151-4168 0.69
[19] He K, Zhang X, Ren S, Sun J (2016) Deep residual learning for image recognition. [19] He K, Zhang X, Ren S, Sun J (2016) 画像認識のための深い残留学習。 0.76
In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp 770–778 In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp 770–778 0.95
[20] Holland JH, et al (1992) Adaptation in natural and artificial systems: an introductory analysis with applications to biology, control, and artificial intelligence. 20] holland jh, et al (1992) adaptation in natural and artificial systems: an introductory analysis with applications to biology, control, and artificial intelligence (英語) 0.74
MIT press [21] Huang G, Liu Z, Van Der Maaten L, Weinberger KQ (2017) Densely connected convolutional networks. MITプレス Huang G, Liu Z, Van Der Maaten L, Weinberger KQ (2017) 巧妙に接続された畳み込みネットワーク。 0.76
In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp 4700–4708 In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp 4700-4708 0.90
[22] Huang J, Wang T, Zheng D, He Y (2020) Nucleus segmentation of cervical cytology images based on multi-scale fuzzy clustering algorithm. 22]huang j, wang t, zheng d, he y (2020)多スケールファジィクラスタリングアルゴリズムに基づく頸部細胞診画像の核分割
訳抜け防止モード: [22 ]Huang J,Wang T,Zheng D, He Y (2020 ) Nucleus segmentation of cervical cytology images based on multi-scale fuzzy clustering algorithm。
0.81
Bioengineered 11(1):484–501 バイオエンジニアリング 11(1):484–501 0.65
[23] Hussain E, Mahanta LB, Borah H, Das CR (2020) Liquid based-cytology pap smear dataset for automated multi-class diagnosis of pre-cancerous and cervical cancer lesions. He23] Hussain E, Mahanta LB, Borah H, Das CR (2020) Liquid based-cytology pap smear dataset for automated multi-class diagnosis of pre-cancerous and cervical cancer lesions。 0.94
Data in Brief p 105589 ブリーフp105589におけるデータ 0.67
[24] Jantzen J, Norup J, Dounias G, Bjerregaard B (2005) Pap-smear benchmark data for pattern classification. [24] Jantzen J, Norup J, Dounias G, Bjerregaard B (2005) パターン分類のためのPap-smearベンチマークデータ。 0.87
Nature inspired Smart Information Systems (NiSIS 2005) pp 1–9 nature inspired smart information systems (nisis 2005) pp 1-9 0.87
[25] Kennedy J, Eberhart R (1995) Particle swarm optimization. 25] kennedy j, eberhart r (1995) particle swarm optimization。 0.56
In: Proceedings of ICNN’95-International Conference on Neural Networks, IEEE, vol 4, pp 1942–1948 In: Proceedings of ICNN'95-International Conference on Neural Networks, IEEE, vol 4, pp 1942–1948 0.98
[26] Marinakis Y, Dounias G, Jantzen J (2009) Pap smear diagnosis using a hybrid intelligent scheme focusing on genetic algorithm based feature selection and nearest neighbor classification. 26] marinakis y, dounias g, jantzen j (2009) pap smear diagnostic using a hybrid intelligent scheme focused on genetic algorithm based feature selection and near neighbor classification (2009) 0.80
Computers in Biology and Medicine 39(1):69–78 生物学・医学におけるコンピュータ 39(1):69-78 0.64
[27] Mart´ınez-M´as J, Bueno-Crespo A, Mart´ınez-Espa˜na R, Remezal-Solano M, Ortiz-Gonz´alez A, Ortiz-Reina S, Mart´ınez-Cend´an JP (2020) Classifying papanicolaou cervical smears through a cell merger approach by deep learning technique. [27] Mart ́ınez-M ́as J, Bueno-Crespo A, Mart ́ınez-Espa sna R, Remezal-Solano M, Ortiz-Gonz ́alez A, Ortiz-Reina S, Mart ́ınez-Cend ́an JP (2020) 深層学習技術による細胞融合アプローチによるパピニコラウ・ネックの分類 0.67
Expert Systems with Applications 160:113707 アプリケーション付きエキスパートシステム 160:113707 0.78
英語(論文から抽出)日本語訳スコア
27 [28] Mirjalili S (2015) Moth-flame optimization algorithm: A novel nature- 27 [28] Mirjalili S (2015) Moth-flame Optimization Algorithm: A novel nature- 0.91
inspired heuristic paradigm. ヒューリスティックパラダイムに触発されました 0.21
Knowledge-based systems 89:228–249 知識ベースシステム89:228–249 0.48
[29] Mirjalili S, Lewis A (2016) The whale optimization algorithm. 29] mirjalili s, lewis a (2016) クジラ最適化アルゴリズム。 0.57
Advances in engineering software 95:51–67 進歩 エンジニアリングソフトウェア95:51–67 0.47
[30] Mirjalili S, Mirjalili SM, Lewis A (2014) Grey wolf optimizer. [30] Mirjalili S, Mirjalili SM, Lewis A (2014) Grey wolf Optimizationr。 0.81
Advances in engineering software 69:46–61 進歩 エンジニアリングソフトウェア69:46–61 0.47
[31] Mitra S, Dey S, Das N, Chakrabarty S, Nasipuri M, Naskar MK (2019) Identification of malignancy from cytological images based on superpixel and convolutional neural networks. 31] mitra s,dey s,das n,chakrabarty s,nasipuri m,naskar mk(2019)スーパーピクセルと畳み込みニューラルネットワークに基づく細胞像からの悪性腫瘍の同定。
訳抜け防止モード: [31 ]Mitra S,Dey S,Das N, Chakrabarty S, Nasipuri M, Naskar MK (2019 ) スーパーピクセルと畳み込みニューラルネットワークに基づく細胞画像からの悪性の同定。
0.73
In: Studies in Computational Intelligence, Springer Singapore, pp 103–122, URL https://doi.org/10.1 007/ 978-981-13-7334-3_8 In: Studies in Computational Intelligence, Springer Singapore, pp 103–122, URL https://doi.org/10.1 007/ 978-981-13-7334-3_8 0.56
[32] Mitra S, Das N, Dey S, Chakrabarty S, Nasipuri M, Naskar MK (2020) Cytology image analysis techniques towards automation: Systematically revisited. [32] Mitra S, Das N, Dey S, Chakrabarty S, Nasipuri M, Naskar MK (2020) 自動化に向けた細胞画像解析技術: 体系的再考 0.82
arXiv preprint arXiv:200307529 arXiv preprint arXiv:200307529 0.78
[33] Niedzielewski K, Marchwiany ME, Piliszek R, Michalewicz M, Rudnicki W (2020) Multidimensional feature selection and high performance parallex. [33]Niedzielewski K, Marchwiany ME, Piliszek R, Michalewicz M, Rudnicki W (2020) 多次元特徴選択と高性能パラレックス。 0.79
SN Computer Science 1(1):1–7 SNコンピュータサイエンス(1):1-7 0.80
[34] Plissiti ME, Dimitrakopoulos P, Sfikas G, Nikou C, Krikoni O, Charchanti A (2018) Sipakmed: A new dataset for feature and image based classification of normal and pathological cervical cells in pap smear images. 534] Plissiti ME, Dimitrakopoulos P, Sfikas G, Nikou C, Krikoni O, Charchanti A (2018) Sipakmed: pap smear画像における正常および病理学的頸部細胞の特徴と画像に基づく分類のための新しいデータセット。 0.86
In: 2018 25th IEEE International Conference on Image Processing (ICIP), IEEE, pp 3144–3148 In: 2018 25th IEEE International Conference on Image Processing (ICIP), IEEE, pp 3144–3148 0.94
[35] Simonyan K, Zisserman A (2014) Very deep convolutional networks for [35] Simonyan K, Zisserman A (2014) 非常に深い畳み込みネットワーク 0.80
large-scale image recognition. arXiv preprint arXiv:14091556 大規模画像認識。 arXiv preprint arXiv:14091556 0.77
[36] Szegedy C, Vanhoucke V, Ioffe S, Shlens J, Wojna Z (2016) Rethinking the inception architecture for computer vision. [36] Szegedy C, Vanhoucke V, Ioffe S, Shlens J, Wojna Z (2016) コンピュータビジョンの開始アーキテクチャを再考。 0.77
In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp 2818–2826 In:Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp 2818–2826 0.91
[37] Wang XY, Garibaldi JM (2005) Simulated annealing fuzzy clustering in [37] Wang XY, Garibaldi JM (2005) Simulated annealing fuzzy clustering in 0.85
cancer diagnosis. Informatica 29(1) がんの診断。 Informatica 29(1) 0.75
[38] William W, Ware A, Basaza-Ejiri AH, Obungoloch J (2019) Cervical cancer classification from pap-smears using an enhanced fuzzy c-means algorithm. [38]William W, Ware A, Basaza-Ejiri AH, Obungoloch J (2019) ファジィc-平均アルゴリズムを用いて, 乳頭から頸部がんを分類した。 0.75
Informatics in Medicine Unlocked 14:23–33 医学のインフォマティクス : 14:23–33 0.54
[39] William W, Ware A, Basaza-Ejiri AH, Obungoloch J (2019) A pap-smear analysis tool (pat) for detection of cervical cancer from pap-smear images. [39]william w, ware a, basaza-ejiri ah, obungoloch j (2019) pap-smear analysis tool (pat) は, pap-smear画像から頸部癌を検出する。 0.81
Biomedical engineering online 18(1):16 バイオメディカルエンジニアリングオンライン18(1):16 0.66
[40] Win KP, Kitjaidure Y, Hamamoto K, Myo Aung T (2020) Computerassisted screening for cervical cancer using digital image processing of pap smear images. [40] Win KP, Kitjaidure Y, Hamamoto K, Myo Aung T (2020) 乳頭癌のコンピュータ支援検診において, 乳頭スミア画像のデジタル画像処理を行った。 0.81
Applied Sciences 10(5):1800 応用科学10(5):1800 0.88
[41] Wu M, Yan C, Liu H, Liu Q, Yin Y (2018) Automatic classification of cervical cancer from cytological images by using convolutional neural network. 41] Wu M, Yan C, Liu H, Liu Q, Yin Y (2018) 畳み込みニューラルネットワークを用いた細胞画像からの頸部癌の自動分類 0.76
Bioscience reports 38(6) バイオサイエンスレポート38(6) 0.81
[42] Xue D, Zhou X, Li C, Yao Y, Rahaman MM, Zhang J, Chen H, Zhang J, Qi S, Sun H (2020) An application of transfer learning and ensemble learning techniques for cervical histopathology image classification. [42]Xue D, Zhou X, Li C, Yao Y, Rahaman MM, Zhang J, Chen H, Zhang J, Qi S, Sun H (2020) 頚部病理組織像分類における転写学習とアンサンブル学習の応用 0.76
IEEE Access 8:104603–104618 IEEE Access 8:104603–104618 0.59
英語(論文から抽出)日本語訳スコア
28 [43] Yang XS (2009) Firefly algorithms for multimodal optimization. 28 [43] Yang XS (2009) マルチモーダル最適化のためのFireflyアルゴリズム。 0.84
In: Inter- national symposium on stochastic algorithms, Springer, pp 169–178 In:Inter- 確率アルゴリズムに関する全国シンポジウム, Springer, pp 169–178 0.84
[44] Yang XS, Gandomi AH (2012) Bat algorithm: a novel approach for global 44] Yang XS, Gandomi AH (2012) Bat algorithm: a novel approach for global 0.79
engineering optimization. エンジニアリング最適化。 0.76
Engineering computations [45] Zhang L, Kong H, Ting Chin C, Liu S, Fan X, Wang T, Chen S (2014) Automation-assisted cervical cancer screening in manual liquid-based cytology with hematoxylin and eosin staining. 工学計算 945] Zhang L, Kong H, Ting Chin C, Liu S, Fan X, Wang T, Chen S (2014) Hematoxylin および eosin 染色による手動液ベース細胞診における自動化による頸部癌検診 0.81
Cytometry Part A 85(3):214–230 [46] Zhang L, Lu L, Nogues I, Summers RM, Liu S, Yao J (2017) Deeppap: deep convolutional networks for cervical cell classification. Cytometry Part A 85(3):214–230 [46] Zhang L, Lu L, Nogues I, Summers RM, Liu S, Yao J (2017) Deeppap: Deep Convolutional Network for cervical cell classification。 0.86
IEEE journal of biomedical and health informatics 21(6):1633–1643 IEEE Journal of Biomedical and Health Informationatics 21(6):1633–1643 0.92
[47] Zhang Y (2012) Support vector machine classification algorithm and its application. [47] zhang y (2012) はベクトル機械分類アルゴリズムとその応用をサポートする。 0.87
In: International Conference on Information Computing and Applications, Springer, pp 179–186 In: International Conference on Information Computing and Applications, Springer, pp 179–186 0.96
                                                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。