論文の概要、ライセンス

# (参考訳) 深層学習による結核とcovid-19の分類 [全文訳有]

Automatic Tuberculosis and COVID-19 cough classification using deep learning ( http://arxiv.org/abs/2205.05480v1 )

ライセンス: CC BY 4.0
Madhurananda Pahar, Marisa Klopper, Byron Reeve, Rob Warren, Grant Theron, Andreas Diacon and Thomas Niesler(参考訳) そこで本研究では,結核(tb)をcovid-19(covid-19-co ough)と健康なcough(coough)と区別できる,ディープラーニングを用いた自動cough分類器を提案する。 TBとCOVID-19はどちらも呼吸器疾患で、有意な症状を呈し、毎年数千人の命が失われている。 coughオーディオ録音は、屋内と屋外の両方で収集され、世界中の被験者からスマートフォンを使ってアップロードされた。 データは、CNN、LSTM、Resnet50の訓練および評価に使用された1.68時間TBの生地、18.54分、47人のTB患者から1.69時間の健康的な生地、229人のCOVID-19患者、1498人の健康的な患者を含む。 これら3つの深い建築は、2.14時間のくしゃみ、2.91時間のスピーチ、2.79時間のノイズで事前訓練された。 SMOTEデータバランシング技術とF1スコアやAUCなどのパフォーマンス指標を用いて,データセットのクラス不均衡に対処した。 その結果,2級(tb対covid-19)のresnet50と3級(tb対covid-19対健康)のcough分類タスクから,0.9259と0.8631のf1-scoreの最高値が得られた。 ディープトランスファー学習の適用により、分類器の性能が向上し、クロスバリデーション・フォールドを一般化するにつれて、より堅牢になった。 彼らの業績は世界保健機関(WHO)が設定したTBトリアージテストの要求を上回る。 最高のパフォーマンスを生み出す特徴は、ヒトの耳によってTBとCOVID-19の生地の違いが認識できないことを示唆するMFCCのより高い順序を含んでいる。 このタイプのcoughオーディオ分類は非接触でコスト効率が高く、スマートフォンに簡単にデプロイできるため、tbとcovid-19スクリーニングの両方に優れたツールとなる。

We present a deep learning based automatic cough classifier which can discriminate tuberculosis (TB) coughs from COVID-19 coughs and healthy coughs. Both TB and COVID-19 are respiratory disease, have cough as a predominant symptom and claim thousands of lives each year. The cough audio recordings were collected at both indoor and outdoor settings and also uploaded using smartphones from subjects around the globe, thus contain various levels of noise. This cough data include 1.68 hours of TB coughs, 18.54 minutes of COVID-19 coughs and 1.69 hours of healthy coughs from 47 TB patients, 229 COVID-19 patients and 1498 healthy patients and were used to train and evaluate a CNN, LSTM and Resnet50. These three deep architectures were also pre-trained on 2.14 hours of sneeze, 2.91 hours of speech and 2.79 hours of noise for improved performance. The class-imbalance in our dataset was addressed by using SMOTE data balancing technique and using performance metrics such as F1-score and AUC. Our study shows that the highest F1-scores of 0.9259 and 0.8631 have been achieved from a pre-trained Resnet50 for two-class (TB vs COVID-19) and three-class (TB vs COVID-19 vs healthy) cough classification tasks, respectively. The application of deep transfer learning has improved the classifiers' performance and makes them more robust as they generalise better over the cross-validation folds. Their performances exceed the TB triage test requirements set by the world health organisation (WHO). The features producing the best performance contain higher order of MFCCs suggesting that the differences between TB and COVID-19 coughs are not perceivable by the human ear. This type of cough audio classification is non-contact, cost-effective and can easily be deployed on a smartphone, thus it can be an excellent tool for both TB and COVID-19 screening.
公開日: Wed, 11 May 2022 13:22:50 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
2 2 0 2 y a M 1 1 2 2 0 2 y a m 1 1 である。 0.54
] G L . s c [ ] G L。 sc [ 0.47
1 v 0 8 4 5 0 1 v 0 8 4 5 0 0.43
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Automatic Tuberculosis and COVID-19 cough 自動結核とCOVID-19コークス 0.63
classification using deep learning 深層学習を用いた分類 0.77
Madhurananda Pahar1, Marisa Klopper2, Byron Reeve2, Rob Warren2, Grant Theron2, Madhurananda Pahar1, Marisa Klopper2, Byron Reeve2, Rob Warren2, Grant Theron2 0.47
Andreas Diacon3 and Thomas Niesler1 Andreas Diacon3 と Thomas Niesler1 0.44
1Department of Electrical and Electronic Engineering, Stellenbosch University, South Africa 1 南アフリカ・ステレンボッシュ大学電気電子工学科 0.50
2SAMRC Centre for Tuberculosis Research, Division of Molecular Biology and Human Genetics, 2samrc結核研究センター分子生物学・ヒト遺伝学部門 0.61
Stellenbosch University, South Africa 南アフリカのステレンボッシュ大学 0.53
3TASK Applied Science, Cape Town, South Africa 南アフリカ, ケープタウンにおける3タスク応用科学 0.70
Email: {mpahar, marisat, byronreeve, rw1, gtheron, ahd, trn}@sun.ac.za メール: {mpahar, marisat, byronreeve, rw1, gtheron, ohd, trn}@sun.ac.za 0.85
Abstract—We present a deep learning based automatic cough classifier which can discriminate tuberculosis (TB) coughs from COVID-19 coughs and healthy coughs. abstract—我々は、covid-19のcoughと健康的なcoughsから結核(tb)のcoughを識別できるディープラーニングベースの自動cough分類器を提案する。 0.57
Both TB and COVID-19 are respiratory disease, have cough as a predominant symptom and claim thousands of lives each year. TBとCOVID-19はどちらも呼吸器疾患で、有意な症状を呈し、毎年数千人の命が失われている。
訳抜け防止モード: TBとCOVID-19はどちらも呼吸器疾患であり、有意な症状である 毎年何千人もの命が
0.73
The cough audio recordings were collected at both indoor and outdoor settings and also uploaded using smartphones from subjects around the globe, thus contain various levels of noise. coughオーディオ録音は、屋内と屋外の両方で収集され、世界中の被験者からスマートフォンを使ってアップロードされた。
訳抜け防止モード: 室内と屋外の両方でコークス録音が収集された 世界中の被写体から スマートフォンを使ってアップロードされました 様々なレベルのノイズを 含んでいます
0.65
This cough data include 1.68 hours of TB coughs, 18.54 minutes of COVID-19 coughs and 1.69 hours of healthy coughs from 47 TB patients, 229 COVID-19 patients and 1498 healthy patients and were used to train and evaluate a CNN, LSTM and Resnet50. データは、CNN、LSTM、Resnet50の訓練および評価に使用された1.68時間TBの生地、18.54分、47人のTB患者から1.69時間の健康的な生地、229人のCOVID-19患者、1498人の健康的な患者を含む。 0.57
These three deep architectures were also pre-trained on 2.14 hours of sneeze, 2.91 hours of speech and 2.79 hours of noise for improved performance. これら3つの深い建築は、2.14時間のくしゃみ、2.91時間のスピーチ、2.79時間のノイズで事前訓練された。
訳抜け防止モード: これら3つの深い建築も2.14時間のくしゃみで事前訓練された。 2.91時間、騒音2.79時間。
0.65
The class-imbalance in our dataset was addressed by using SMOTE data balancing technique and using performance metrics such as F1-score and AUC. SMOTEデータバランシング技術とF1スコアやAUCなどのパフォーマンス指標を用いて,データセットのクラス不均衡に対処した。 0.75
Our study shows that the highest F1-scores of 0.9259 and 0.8631 have been achieved from a pre-trained Resnet50 for two-class (TB vs COVID-19) and three-class (TB vs COVID-19 vs healthy) cough classification tasks, respectively. その結果,2級(tb対covid-19)のresnet50と3級(tb対covid-19対健康)のcough分類タスクから,0.9259と0.8631のf1-scoreの最高値が得られた。 0.60
The application of deep transfer learning has improved the classifiers’ performance and makes them more robust as they generalise better over the crossvalidation folds. deep transfer learningの適用により、分類器のパフォーマンスが向上し、クロスバリデーション(crossvalidation)のフォールドよりも汎用性が向上した。 0.71
Their performances exceed the TB triage test requirements set by the world health organisation (WHO). 彼らの業績は世界保健機関(WHO)が設定したTBトリアージテストの要求を上回る。 0.68
The features producing the best performance contain higher order of MFCCs suggesting that the differences between TB and COVID19 coughs are not perceivable by the human ear. 最高のパフォーマンスを生み出す特徴は、ヒトの耳によってTBとCOVID19コークスの違いが知覚できないことを示唆するMFCCのより高い順序を含んでいる。 0.64
This type of cough audio classification is non-contact, cost-effective and can easily be deployed on a smartphone, thus it can be an excellent tool for both TB and COVID-19 screening. このタイプのcoughオーディオ分類は非接触でコスト効率が高く、スマートフォンに簡単にデプロイできるため、tbとcovid-19スクリーニングの両方に優れたツールとなる。 0.77
Index Terms—tuberculosis, COVID-19, Resnet50, CNN, LSTM 結核、COVID-19、Resnet50、CNN、LSTM 0.69
I. INTRODUCTION I. イントロダクション 0.64
Tuberculosis (TB) is a bacterial infectious disease which affects the human lungs, prevalent in low-income settings and 95% of all TB cases are reported in developing countries [1], [2]. 結核 (tb) はヒトの肺に影響を与える細菌感染症であり、低所得環境では95%が開発途上国で報告されている [1], [2] である。
訳抜け防止モード: 結核は細菌感染症である。 ヒトの肺に影響を与えます 発展途上国では低所得化が進み、全TB症例の95%が報告されている[1]。 [ 2 ] .
0.82
Modern diagnostic tests are costly as they rely on special equipment and laboratory procedure [3]–[5]. 現代の診断検査は、特別な機器と実験室の手順に依存するため費用がかかる[3]-[5]。 0.81
Suspected patients are tested when they show the symptom criteria of TB 疑わしい患者は tbの症状基準を示すと 0.57
investigation and the results indicate that most of them cough due to other lung ailments; in fact most of those TB-suspected patients do not suffer from TB [6]. 調査と結果から,他の肺疾患が原因で,ほとんどの患者にTB[6]の症状がみられていないことが示唆された。 0.76
COVID-19 (COrona VIrus Disease of 2019) was declared as a global pandemic on February 11, 2020 by the World Health Organisation (WHO). 世界保健機関(WHO)は、2020年2月11日に新型コロナウイルス(COVID-19)を世界的なパンデミックと宣言した。 0.70
At the time of writing, there are 513.9 million COVID-19 global cases and sadly, the pandemic has claimed the life of 6.2 million [7]. この記事執筆時点では、新型コロナウイルスの世界的な感染者は513.9億人で、残念なことにパンデミックは620万人[7]の命だと主張している。
訳抜け防止モード: 執筆時点で 新型コロナウイルスの世界的な感染者は 51390万人で そして悲しいことに、パンデミックの命は620万[7]だった。
0.49
Thus, many suspected TB patients are very likely to be suffering from COVID-19 in developing countries and experimental evidence suggests that healthy people cough less than those who are sick from lung ailments [8]. したがって、開発途上国では、多くのtb患者がcovid-19に苦しむ可能性が非常に高く、実験的な証拠から、健康な人は肺疾患にかかっている人より少ない[8]。 0.69
Therefore, there is a need for automated non-contact, low-cost, easily-accessible tools for both TB and COVID-19 screening on cough audio. そのため、coough audioでtbとcovid-19のスクリーニングを行うために、非接触で低コストで簡単にアクセスできる自動ツールが必要となる。 0.61
One of the major symptoms of respiratory diseases like TB and COVID-19 is a cough [9], [10]. TBやCOVID-19といった呼吸器疾患の大きな症状の1つは、うっ血[9]、[10]です。 0.73
Depending on the nature of the respiratory disease, the airway is to be either blocked or restricted and this can affect the acoustic properties of the coughs, thus enabling the cough audio to be used by machine learning algorithms in many studies including our own [11]– [13] for discriminating both TB [14] and COVID-19 [15] from healthy coughs. 呼吸器疾患の性質によっては、気道はブロックされるか、制限されるかのどちらかであり、これはcooughの音響特性に影響を与える可能性があるため、私たちの[11]–[13]を含む多くの研究において、cooughオーディオは、健康なcooughsからtb[14]とcovid-19[15]の両方を区別するために、機械学習アルゴリズムによって使用される。
訳抜け防止モード: 呼吸器疾患の性質による。 気道はブロックされるか 制限されるか これはコークスの音響特性に影響を及ぼす可能性があるため、私たちの[11 ] - [13 ]を含む多くの研究において、機械学習アルゴリズムでコークスオーディオを使用できるようになる。 TB [14 ] と COVID-19 [15 ] を健常者から区別する。
0.79
TB coughs are rare, thus datasets are small and not publicly available. tb coughsは稀であり、データセットは小さく、公開されていない。 0.66
Successful studies [8], [11], [16] have experimentally found that shallow classifiers such as a multilayer perceptron (MLP) or logistic regression (LR) model works well in detecting TB in cough audio. 8], [11], [16] 実験により, 多層パーセプトロン (mlp) モデルやロジスティック回帰 (lr) モデルなどの浅い分類器は, cough audio における tb の検出に有効であることがわかった。 0.79
However, COVID-19 data is widely available [17]–[19] and many recent studies have successfully applied deep neural network (DNN) classifiers to detect COVID-19 in cough audio [15], [20], [21]. しかし、COVID-19のデータは[17]〜[19]で広く利用されており、近年の多くの研究は、ディープニューラルネットワーク(DNN)分類器を用いて、音声[15]、[20]、[21]のCOVID-19を検出することに成功した。 0.75
In this study, we present a deep learning based automatic cough classifier which discriminates TB coughs from COVID19 coughs. 本研究では,covid-19(covid-19)c oughsからtbcoughsを判別する,ディープラーニングを用いた自動cough分類器を提案する。 0.53
We have used both public and private datasets and as COVID-19 coughs are under-represented in our dataset, we have used synthetic minority over-sampling technique (SMOTE) to create new datapoints and balance the dataset. パブリックデータセットとプライベートデータセットの両方を使用してきましたが、covid-19のcooughsがデータセットに過小評価されているため、新しいデータポイントを作成し、データセットのバランスをとるために、smote(synthetic minority over-sampling technique)を使用しました。 0.51
We have also used both Area under the ROC curve (AUC) ROC曲線(英語版) (AUC) の両領域も用いている。 0.68
英語(論文から抽出)日本語訳スコア
and F1-score as the performance metric for our three DNN classifiers: CNN, LSTM & Resnet50 and used nested crossvalidation to make the best use of our dataset. cnn、lstm、resnet50の3つのdnn分類器のパフォーマンス指標としてf1-scoreを使って、データセットを最大限に活用しました。
訳抜け防止モード: 3つのDNN分類器の性能指標としてのF1スコア : CNN, LSTM & Resnet50 ネストしたクロスバリデーションを使い データセットを最大限に活用するためです
0.73
The highest F1score of 0.9042 has been achieved from a Resnet50 classifier in discriminating TB coughs from COVID-19 coughs. 最高 F1 スコア 0.9042 は Resnet50 の分類器で TB コーと COVID-19 コーを区別することで達成されている。 0.51
Inspired by our previous research [22], we have made use of sneeze, speech and noise to pre-train these three deep architectures as well. これまでの研究 [22] にインスパイアされた我々は、これらの3つの深いアーキテクチャを事前訓練するために、くしゃみ、音声、雑音を利用した。 0.60
This has improved the F1-score of this two-class classification task to 0.9259 with more robust performance across the cross-validation folds. これにより、この2クラス分類タスクのF1スコアが0.9259に改善され、クロスバリデーションの折り畳み性能が向上した。 0.60
The corresponding AUC has been 0.9245 with a 96% sensitivity at 80% specificity, exceeding the TB triage test requirement of 90% sensitivity at 70% specificity set by WHO. 対応する auc は 0.9245 で 96% の感度で 80% の特異度で、who が設定した tb triage テスト要求を 90% の感度で上回っている。 0.70
We have further investigated these three DNN classifiers’ performances in a three-class classification task, where we added healthy coughs as a third class. さらに,これら3つのDNN分類器のパフォーマンスを3クラス分類タスクで検証し,第3クラスに健常者を加えた。 0.78
Initially, an F1-score of 0.8578 has been achieved from the Resnet50 and it has been improved to 0.8631 from the same architecture in discriminating TB, COVID-19 and healthy coughs after applying the transfer learning. 当初、resnet50からf1-score 0.8578が達成され、転送学習を施した後にtb、covid-19、健康なcoughを識別する同じアーキテクチャから 0.8631 に改良された。 0.62
Section II will detail the datasets used for pre-training the DNN classifiers and the datasets used for both two-class and three-class classification and fine-tuning those three classifiers. 第2節では、dnn分類器の事前トレーニングに使用されるデータセットと、これら3つの分類器の微調整に使用されるデータセットについて詳述する。 0.54
Section III explains the features extracted from the audio and Section IV describes the classification and hyperparameter optimisation process. 第3節は音声から抽出された特徴を説明し、第4節は分類とハイパーパラメータ最適化プロセスを記述する。 0.59
Section V summarises the results and Section VI discusses them. 第5節は結果を要約し、第6節はそれらを議論する。 0.33
Finally, Section VII concludes this study. 最後に、第7節はこの研究を終える。 0.60
II. DATA We have made use of both public and private data in this study. II。 データ われわれはこの研究でパブリックデータとプライベートデータの両方を利用した。 0.74
TASK, Brooklyn, Sarcos and Wallacedene datasets were compiled by ourselves as part of the research projects concerning cough monitoring and cough classification. TASK, Brooklyn, Sarcos, Wallacedeneのデータセットは、粗いモニタリングと粗い分類に関する研究プロジェクトの一環として、私たち自身によってコンパイルされた。 0.58
Coswara, ComParE, Google Audio Set & Freesound and LibriSpeech were compiled from publicly available data. Cosawara、ComParE、Google Audio Set & Freesound、LibriSpeechは公開データからコンパイルされた。 0.83
Coughs with labels ‘TB’, ‘COVID-19’ and ‘healthy’ are used for the classification task. 分類作業には‘TB’、‘COVID-19’、‘Healthy’のラベルが使用されている。 0.77
Coughs were excluded from the data used for pre-training altogether as coughs without these three labels may originate from other diseases and we only classified disease in either classification (two-class and three-class) task or fine-tuning the pre-trained DNNs on cough audio. これら3つのラベルを使わずに事前に訓練したデータから、他の疾患に起因している可能性があり、分類(2級・3級)タスクか、あるいは、訓練済みのDNNを音声で微調整するのみである。 0.53
All recordings were downsampled to 16 kHz. 全ての録音は16kHzにダウンサンプリングされた。 0.64
A. Cough audio data for classification A.分類のためのカフ音声データ 0.80
The following six datasets of coughs with TB, COVID-19 and healthy labels were available for experimentation and are described in Table I. 以下の6つのデータセットとTB、COVID-19、健康なラベルが実験用に利用可能であり、表Iに記載されている。 0.60
1) TASK dataset: This dataset contains 6000 continuous cough recordings and 11393 non-cough sounds such as laughter, doors opening and objects moving [22]. 1)タスクデータセット:このデータセットには6000の連続したカウ記録と、笑い、ドアの開閉、移動する物体などの11393の非カウ音が含まれている [22]。
訳抜け防止モード: 1 )タスクデータセット : このデータセットは6000の連続的なcoughレコードを含む そして11393 笑いや扉の開きなど不気味な声 動く物体は22個です
0.76
It was collected at TASK, a TB research centre near Cape Town, South Africa from patients undergoing TB treatment [23]. 対象は南アフリカのケープタウン近郊にあるtb研究センター「task」で,tb治療を受けた患者から採取した [23]。 0.82
The data were compiled to develop cough detection algorithms and monitor patients’ long-term health recovery in a multi-bed ward environment using a smartphone with an attached external microphone [24]. データをコンパイルして,外部マイクを装着したスマートフォンを用いて,患者の長期健康回復をモニタリングするアルゴリズムを開発した[24]。 0.72
2) Brooklyn dataset: Cough audio was compiled from 17 TB and 21 healthy subjects to discriminate TB from healthy cough for developing a TB cough audio classifier [8]. 2) ブルックリンデータセット: 17 tb および 21 名の健常者から cough audio をコンパイルし, tb cough audio 分類器の開発のために, 健康な cough から tb を判別した [8]。 0.77
The recordings were taken inside a controlled indoor booth, using an audio field recorder and a RØDE M3 microphone. 録音は、オーディオフィールドレコーダーとrøde m3マイクロホンを使用して、制御された屋内ブース内で撮影された。 0.66
3) Wallacedene dataset: This dataset was collected to extend the previous TB cough audio classification study [8] to discriminate TB coughs from other sick coughs in a realworld noisy environment [11]. 3) wallacedeneデータセット: このデータセットは、以前のtb cough audio classification study [8]を拡張して、現実世界の騒がしい環境で、他の病気のcoughsからtb coughsを区別するために集められた [11]。 0.71
Here, the cough recordings were collected using a RØDE M1 microphone and an audio field recorder and it took place in an outdoor booth located at a busy primary healthcare clinic. ここでは、røde m1マイクロホンとオーディオフィールドレコーダーを使って、coughの録音を収集し、忙しいプライマリ・ヘルスケア・クリニックにある屋外ブースで実施しました。 0.74
It contains 402 coughs from 16 TB patients and more environmental noise and therefore a poorer signal-to-noise ratio than the Brooklyn dataset. 16 TBの患者から402コウがあり、環境騒音が高く、ブルックリンのデータセットよりも信号と雑音の比率が低い。 0.74
4) Coswara dataset: This publicly available dataset is specifically developed for the purpose of developing COVID-19 classification algorithms [18], [25]. 4)コスワラデータセット:この公開データセットは、新型コロナウイルスの分類アルゴリズム[18],[25]を開発する目的で特別に開発された。 0.70
Data collection is web-based, and participants record their vocal audio including coughs using their smartphones. データ収集はWebベースで、参加者はスマートフォンを使って音声を録音する。 0.71
In this study, we used the deep coughs from 92 COVID-19 positives and 1079 healthy subjects, located on five different continents [12], [13]. 本研究では,5つの大陸[12],[13]に分布する92人のCOVID-19陽性者, 1079人の健常者を対象に,深層皮膚について検討した。
訳抜け防止モード: 今回の研究では 92人のcovid-19陽性者から 5つの大陸[12]に位置する健康な被験者1079名です [ 13 ] .
0.72
All recordings were pre-processed to remove periods of silence to within a margin of 50 ms using a simple energy detector [12]. すべての記録は、単純なエネルギー検出器[12]を使用して50ミリ秒以内の沈黙期間を除去するために前処理された。 0.64
5) ComParE dataset: This dataset was provided as a part of the 2021 Interspeech Computational Paralinguistics ChallengE (ComParE) [19]. 5)ComParEデータセット:このデータセットは2021年のInterspeech Computational Paralinguistics ChallengE (ComParE) [19]の一部として提供されました。 0.80
The ComParE dataset contains 119 COVID19 positives and 398 healthy subjects whose cough recordings were sampled at 16 kHz. 比較データセットには119人のcovid-19陽性者と398人の健常者が含まれている。 0.55
6) Sarcos dataset: This dataset was collected in South Africa as part of our own COVID-19 research [12], [13] and contains coughs from 18 COVID-19 positive subjects. 6)sarcosデータセット: このデータセットは、当社のcovid-19 research [12], [13]の一部として南アフリカで収集され、18人のcovid-19陽性者のせきを含む。 0.66
The audio was pre-processed in the same way as the Coswara data. オーディオはCosharaのデータと同じ方法で前処理された。 0.76
7) Summary of data used for classification: Table I shows that our data contain only 18.54 minutes of COVID-19 cough audio, compared to 1.68 hours of TB coughs and 1.69 hours of healthy coughs, indicating COVID-19 labelled data are underrepresented. 7) 分類に使用されるデータの概要: 表1は、我々のデータは、新型コロナウイルスの音声の18.54分しか含まれていないことを示している。
訳抜け防止モード: 7) 分類に用いたデータの概要 : 表1は、我々のデータに、COVID-19コークス音声の18.54分しか含まれていないことを示している。 TBは1.68時間、健康は1.69時間である。 新型コロナウイルスのラベル付きデータが不足していることを示す。
0.54
As such a data-imbalance can detrimentally affect the neural networks’ performance [26], [27], we have applied SMOTE [28], which oversamples the minor class by creating additional synthetic samples rather than, for example, randomly oversampling during training. このようなデータ不均衡はニューラルネットワークのパフォーマンス [26], [27] に悪影響を及ぼす可能性があるため、トレーニング中にランダムにオーバーサンプリングするのではなく、追加の合成サンプルを作成してマイナークラスをオーバーサンプリングするsmote [28]を適用した。 0.77
SMOTE has been applied successfully in the past to address training set class imbalances in cough detection [22] and cough classification [12]. smoteは過去にも,cough検出 [22] とcough分類 [12] のトレーニングセットの不均衡に対処するために,うまく適用されてきた。 0.69
TASK dataset contains only 14 patients but the length of cough audio per patient was much longer than the other two datasets. TASKデータセットには14人の患者しか含まれていないが、患者1人当たりの音声の長さは他の2つのデータセットよりもずっと長かった。
訳抜け防止モード: TASKデータセットは14例のみを含む 患者1人当たりの音声の長さは 他の2つのデータセットよりずっと長かった
0.78
The audio and spectrograms of a TB, COVID-19 and healthy cough are shown in Figure 1. 図1に、TB、COVID-19、および健常者の音声および分光図を示す。 0.74
There are very little obvious visual differences between these three coughs. これら3つの間には視覚的な違いがほとんどない。 0.65
An informal subjective test was conducted where approximately 20 university students were asked to spot the sick and healthy coughs just by listening to these cough audio and the results showed that human auditory system is unable to spot any disease or differentiate sick coughs from healthy coughs only by listening to the coughs. 非公式な主観試験を行った結果, 約20名の大学生に, これらを聴くだけでは, 病的, 健康的, 健康的かきを見付けるように求められ, 人間の聴覚系では, 病気を発見できなかったり, 健康的かきと区別できないことがわかった。 0.72
英語(論文から抽出)日本語訳スコア
(a) A cough from a TB positive subject. (a) tb陽性被検者からのせき。 0.51
(b) A cough from a COVID-19 positive subject. (b)covid-19陽性者からのせき。 0.59
Fig. 1: Spectrogram representation of a TB, COVID-19 and healthy cough: These three coughs show very little difference in their spectrogram forms and a subjective test couldn’t differentiate the sick coughs from the healthy coughs. 図1: tb、covid-19、健康なcoughのスペクトログラム表現 この3つのcoughは、彼らのスペクトログラム形態にほとんど差がなく、主観的なテストでは、病気のcoughと健康なcoughを区別できませんでした。 0.73
TABLE I: Datasets used in cough classification. 表 i: cough分類で使われるデータセット。 0.79
These datasets contain three cough classes: TB, COVID-19 and healthy. これらのデータセットには、TB、COVID-19、健康という3つの粗いクラスが含まれている。 0.42
(c) A cough from a healthy subject. (c)健康な被験者からのせき。 0.68
Type TB Cough COVID-19 Cough 種類 TBカフ 新型コロナウイルスのカフス 0.50
Healthy Cough Dataset TASK 健康なせき データセットTASK 0.65
Brooklyn Wallacedene ブルックリン ウォレスデン 0.48
Total (TB Cough) Total (複数形 Totals) 0.35
Coswara ComParE coswara (複数形 coswaras) 0.30
Sarcos Total (COVID-19 Cough) サルコス トータル(COVID-19カフ) 0.56
Coswara ComParE Brooklyn Coshara ComParE Brooklyn 0.37
Total (Healthy Cough) total (複数形 totals) 0.29
Sampling rate No of subjects サンプリングレート 科目なし 0.59
Total audio Average length トータルオーディオ 平均長 0.73
Standard deviation 44.1 kHz 44.1 kHz 44.1 kHz 標準偏差 44.1kHz 44.1kHz 44.1kHz 0.68
— 44.1 kHz 16 kHz 44.1 kHz — 44.1kHz 16kHz 44.1kHz 0.57
— 44.1 kHz 16 kHz 44.1 kHz — 44.1kHz 16kHz 44.1kHz 0.57
— 14 17 16 47 92 119 18 229 1079 398 21 1498 — 14 17 16 47 92 119 18 229 1079 398 21 1498 0.42
91 mins 4.63 mins 4.98 mins 1.68 hours 4.24 mins 13.43 mins 0.87 mins 18.54 mins 0.98 hours 40.89 mins 1.66 mins 1.69 hours 91分 4.63分 4.98分 1.68時間 4.24分 13.43分 0.87分 18.54分 0.98時間 40.89分 1.66分 1.69時間 0.43
6.5 mins 16.35 sec 18.69 sec 2.14 min 2.77 sec 6.77 sec 2.91 sec 4.85 sec 3.26 sec 6.16 sec 4.7 sec 4.05 sec 6.5 mins 16.35 sec 18.69 sec 2.14 min 2.77 sec 6.77 sec 2.91 sec 4.85 sec 3.26 sec 6.16 sec 4.7 sec 4.05 sec 0.30
1.23 mins 13 sec 4.95 sec 28.37 sec 1.62 sec 2.11 sec 2.23 sec 1.92 sec 1.66 sec 2.26 sec 3.9 sec 1.85 sec 1.23分 13 sec 4.95 sec 28.37 sec 1.62 sec 2.23 sec 1.92 sec 1.66 sec 2.26 sec 3.9 sec 1.85 sec 0.46
B. Datasets without cough labels for pre-training b.事前トレーニングのためのcoughラベルのないデータセット 0.57
Our classifier training is limited as cough audio data is not available abundantly. 音声データが豊富に入手できないため、分類器の訓練は限られている。 0.59
Hence, we use three other types of audio data for pre-training and they include sneeze, speech and noise from Google Audio Set & Freesound, LibriSpeech and TASK datasets, as described in Table II. そこで,本研究では,google audio set & freesound, librispeech, task datasetsのスニーズ,音声および雑音を,テーブルiiで記述した3種類の音声データを用いて事前学習を行う。 0.80
1) Google Audio Set & Freesound: The Google Audio Set dataset contains manually-labelled excerpts from 1.8 million Youtube videos belonging to 632 audio event categories [29]. 1Google Audio Set & Freesound: Google Audio Setデータセットには、632のオーディオイベントカテゴリに属する180万のYoutubeビデオからの抜粋が手作業で収録されている[29]。 0.71
The Freesound audio database is a collection of tagged sounds uploaded by contributors from various parts of the world [30]. freesound audio databaseは、世界中のさまざまな地域のコントリビュータがアップロードしたタグ付きサウンドのコレクションです [30]。 0.78
The audio recordings come from many different individuals オーディオ録音は多くの異なる個人から来ています 0.69
under widely varying recording conditions and noise levels. 録音条件や騒音のレベルが 大きく異なります 0.77
From these, we have compiled a collection of recordings that include 1013 sneezes, 2326 speech excerpts and 1027 other non-vocal sounds such as restaurant chatter, running water and engine noise. これらから1013のくしゃみ、2326の音声抜粋、レストランのおしゃべり、ランニングウォーター、エンジンノイズなど、他の1027の非ボーカルな音を含む録音をまとめた。 0.73
This manually annotated dataset was successfully used in developing cough detection algorithms [31]. この手動アノテートデータセットは,コウ検出アルゴリズムの開発に成功している[31]。 0.77
2) LibriSpeech: From the freely available LibriSpeech corpus [32], utterances by 28 male and 28 female speakers were selected as a source of speech audio data with very little noise. 2)librispeech: 自由に利用可能なlibrispeechコーパス[32]から,28人の男性と28人の女性話者による発話を,雑音の少ない音声音声データの音源として選択した。 0.76
In total, the data described in Table II includes 1013 sneezing sounds (13.34 minutes of audio), 2.91 hours of speech from both 表IIに記載されているデータには、1013のくしゃみ音(音声13.34分)と2.91時間の発声が含まれている。 0.70
3) Summary of data used for pre-training: 3)事前学習に使用するデータの概要 0.75
英語(論文から抽出)日本語訳スコア
male and female participants, and 2.98 hours of noise. 男女は2.98時間 騒音は2.98時間 0.62
As sneezing is under-represented, we have again applied SMOTE to create additional synthetic samples. スニーズが不足しているため、我々は再びSMOTEを用いて追加の合成サンプルを作成しました。 0.49
In total, therefore, a dataset containing 7.84 hours of audio recordings with three class labels (sneeze, speech, noise) was used to pre-train the three DNN classifiers. そのため、3つのDNN分類器を事前訓練するために、3つのクラスラベル(くしゃみ、音声、雑音)を持つ7.84時間の音声記録を含むデータセットが使用された。 0.67
III. FEATURE EXTRACTION Features III。 特徴抽出 特徴 0.66
such as mel-frequency cepstral メル周波数ケプストラーなど 0.51
coefficients (MFCCs), zero-crossing rate (ZCR) [33] and kurtosis [33] were extracted from the audio recordings and were used as the input to the DNN classifiers. 音声記録から係数 (mfccs), ゼロクロスレート (zcr) [33] およびkurtosis [33] を抽出し, dnn分類器への入力として用いた。 0.68
The feature combination containing MFCCs rather than linearly-spaced log filerbanks [8] showed better performance in our previous TB [11] and COVID-19 [12], [22] classification tasks, so we have extracted MFCCs, along with the first and second order differences, ZCR and Kurtosis for both classification and pre-training task. 従来のTB[11] と COVID-19[12] の分類タスクでは,MFCC を線形に配置するよりも,MFCC を含む機能の組み合わせの方が優れた性能を示したので,第1次と第2次の違いとともに,ZCR と Kurtosis の分類と事前訓練の両タスクを抽出した。 0.81
MFCCs are the features of choice in detecting and classifying voice audio such as speech [34] and coughs [31]. mfccは、音声 [34] や coughs [31] などの音声の検出と分類において選択される特徴である。 0.79
Overlapping frames were used to extract features, where the frame overlap ensures that the audio signal is always divided into a certain exact number of frames, thus always representing the entire audio event by a fixed number of frames. 重なり合うフレームは特徴を抽出するのに使われ、フレーム重なりはオーディオ信号が常に特定のフレーム数に分割されることを保証するため、オーディオイベント全体を一定のフレーム数で表現する。 0.79
This allows an image-like fixed input dimension to be maintained for classification while preserving the general overall temporal structure of the sound. これにより、音の全体的な時間構造を維持しながら、画像のような固定入力次元を分類のために維持することができる。 0.62
The input feature matrix has the dimension of (3M+2,S) for M MFCCs along with their M velocity and M acceleration coefficients. 入力特徴行列は、MMFCCの寸法(3M+2,S)とM速度およびM加速度係数を有する。 0.72
Such fixed two-dimensional features are particularly useful for the training of DNN classifiers and have performed well in our previous experiments [12], [22]. このような固定2次元特徴は,dnn分類器の訓練に特に有用であり,これまでの実験 [12], [22] では良好であった。 0.80
The frame length (F), exact number of frames (S) and number of lower order MFCCs (M) are used as the feature extraction hyperparameters, listed in Table III. 表IIIに記載されている特徴抽出ハイパーパラメータには、フレーム長(F)、フレーム数(S)、下位MFCC数(M)が使用される。 0.70
The table shows that the number of extracted MFCCs (M) lies between 13 and 65, which varies the spectral information in each audio event and each audio signal is divided into between 70 and 200 frames, each of which consists of between 512 and 4096 samples, corresponding to between 32 msec and 256 msec of audio, as different phases of coughs carry different information and the sampling rate is 16 kHz in our experiments. この表は、抽出されたmfcc (m) の数は13〜65で、各音声イベントのスペクトル情報を変化させ、各音声信号は70〜200フレームに分割され、それぞれが32msecから256msecのオーディオに対応する512〜4096のサンプルで構成されており、それぞれ異なるカウの位相が異なる情報を持ち、サンプリングレートは16khzであることを示している。 0.69
A. Classifier Architectures A.分類器アーキテクチャ 0.66
IV. CLASSIFICATION PROCESS IV。 クラシフィケーション方法 0.37
We have used three DNN classifiers: CNN [35], LSTM [36] and Resnet50 [37] in this study. 本研究では,cnn [35],lstm [36],resnet50 [37]の3つのdnn分類器を用いた。 0.73
We have refrained from experimenting with any shallow classifier as using deep architectures along with SMOTE data balancing technique yielded better results in our previous experiments [12], [22]. 我々は,SMOTEデータバランシング技術とともに,深層アーキテクチャを用いた浅層分類器の実験を控え,これまでの実験でより良い結果を得た[12],[22]。 0.85
For our initial set of experiments, we have used these three DNN classifiers for two-class (TB vs COVID-19) and threeclass (TB vs COVID-19 and healthy) classification and the classifier hyperparameters are mentioned in Table IV. 最初の実験では、これら3つのDNN分類器を2クラス(TB vs COVID-19)と3クラス(TB vs COVID-19)の分類に使用し、分類器のハイパーパラメーターを表IVに記載した。 0.78
The classifier training process is stopped when the performance wasn’t improved after 10 epochs. 10時間後にパフォーマンスが改善されないと、分類器のトレーニングプロセスが停止する。 0.72
Finally, for the improved performance, we have applied the transfer learning. 最後に、性能向上のために、転送学習を適用した。 0.71
TABLE IV: Classifier hyperparameters, optimised using leave-p-out nested cross-validation. 表 iv: classifier hyperparameters, leave-p-out nested cross-validationを使用して最適化された。 0.51
Hyperparameters No. ハイパーパラメータなし。 0.68
of conv filters (α1) Kernel size (α2) Dropout rate (α3) Dense layer size (α4) LSTM units (α5) Learning rate (α6) Batch Size (α7) convフィルタ (α1) カーネルサイズ (α2) ドロップアウトレート (α3) 高密度層サイズ (α4) lstmユニット (α5) 学習レート (α6) バッチサイズ (α7) について 0.86
Classifier CNN CNN 分類 CNN CNN 0.38
Range 3 × 2k where k = 3, 4, 5 2 and 3 範囲 3 × 2k で k = 3, 4, 5 2, 3 0.84
CNN, LSTM 0.1 to 0.5 in steps of 0.2 CNN, LSTM 2k where k = 4, 5 cnn, lstm 0.1 - 0.5 0.2 cnn, lstm 2k のステップでは、k = 4, 5 である。 0.52
LSTM LSTM 2k where k = 6, 7, 8 10k where, k = −2, −3, −4 LSTM LSTM 2k、k = 6, 7, 8 10k、k = −2, −3, −4 である。 0.60
CNN, LSTM 2k where k = 6, 7, 8 cnn, lstm 2k ここで k = 6, 7, 8 0.69
B. Transfer Learning Architectures B.伝達学習アーキテクチャ 0.72
The application of transfer learning has improved the classification performance in our previous studies [12], [13]. 転校学習の適用により,これまでの研究 [12], [13] における分類性能が向上した。 0.85
Hence, we have also applied transfer learning in this study to improve the classification performance, where the DNN classifiers are pre-trained on the dataset, explained in Section II-B, and then fine-tuned on the classification datasets, explained in Section II-A. そこで本研究では,DNN分類器をデータセット上で事前学習し,第2節-B節で説明し,第2節-A節で解説した分類データセットを微調整することで,分類性能を向上させるために移動学習を適用した。 0.70
The feature extraction hyperparameters are adopted from our previous studies [12], [13] and the hyperparameters of the CNN and LSTM were determined during the cross-validation process. 従来の研究 [12], [13] から特徴抽出ハイパーパラメータが採用され, cnnおよびlstmのハイパーパラメータがクロスバリデーション過程で決定された。 0.72
These hyperparameters are mentioned in Table V. A standard Resnet50, as explained in Table 1 of [37], with 512unit dense layer has been used for the transfer learning. 標準的なResnet50は[37]の表1に説明されているように、転送学習には512ユニットの高密度層が使われている。 0.61
The transfer learning process for a CNN is explained in Figure 2. CNNの転送学習過程を図2に示す。 0.65
C. Hyperparameter optimisation C.ハイパーパラメータ最適化 0.59
The feature extraction process and classifiers have a number of hyperparameters, listed in Table III and IV. 特徴抽出プロセスと分類器は、表IIIとIVに列挙された多くのハイパーパラメータを持つ。 0.77
They were optimised by using a leave-p-out cross-validation scheme [38]. それらの最適化は、Left-p-outクロスバリデーションスキーム[38]を用いて行われた。 0.45
The train and test split ratio was 4:1, due to its effectiveness in medical applications [39]. 医療応用における有効性から, 列車と試験分割率は4:1であった[39]。 0.88
This 5-fold cross-validation process ensured the best use of our dataset by using all subjects in both training and testing the classifiers and implementing a strict no patient-overlap between cross-validation folds. この5倍のクロスバリデーションプロセスは、分類器のトレーニングとテストの両方にすべての被験者を使用することで、データセットを最大限に活用し、クロスバリデーションフォールド間の厳格な非患者オーバーラップを実現しました。 0.52
D. Classifier evaluation The F1-score has been the optimisation criteria in the crossvalidation folds and the performance-indicato r of the classifiers [40], [41]. D.分類器の評価 f1-score はクロスバリデーションの最適化基準であり、分類器 [40], [41] の性能指標である。 0.68
We note the mean per-frame probability that a cough is from a COVID-19 positive subject is ˆC in Equation 1. Equation 1 では、新型コロナウイルス陽性の被験者の生地のフレーム当たりの平均確率は ~C である。 0.58
S(cid:80) P (Y = 1|Xi, θ) s(cid:80) P(Y = 1|Xi, θ) 0.43
(1) where P (Y = 1|Xi, θ) is the output of the classifier for feature vector Xi and parameters θ for the ith frame. 1) P (Y = 1|Xi, θ) は特徴ベクトル Xi の分類器の出力であり、パラメータ θ は i フレームの出力である。 0.85
S ˆC = i=1 S ※C= i=1 である。 0.44
The average F1-score along with its standard deviation (σF 1) over the outer folds during cross-validation are shown in Tables VI, VII. 平均f1-scoreとその標準偏差(σf1)は、クロスバリデーション中の外側の折りたたみに対して表vi,viiに示される。 0.63
Hyperparameters producing the highest F1-score over the inner loops have been noted as the ‘best classifier hyperparameters’ in Tables VI, VII. 内部ループ上で最も高いF1スコアを生成するハイパーパラメータは、テーブルVI, VIIで「最良の分類器ハイパーパラメータ」として言及されている。 0.63
英語(論文から抽出)日本語訳スコア
TABLE II: Datasets used in pre-training. TABLE II: 事前トレーニングに使用されるデータセット。 0.69
Classifiers are pre-trained on 7.84 hours of audio recordings annotated with three class labels: sneeze, speech and noise. 分類器は、スニーズ、スピーチ、ノイズの3つのクラスラベルでアノテートされた7.84時間の音声録音で事前訓練される。 0.56
These data do not contain any cough. これらのデータにはうずくは含まれていない。 0.53
Type Sneeze Speech 種類 くしゃみ スピーチ 0.65
Noise Dataset Sampling rate 騒音 データセット サンプリングレート 0.57
No of events Google Audio Set & Freesound イベントなし Google Audio SetとFreesound 0.49
Google Audio Set & Freesound + SMOTE Google Audio Set & Freesound + SMOTE 0.43
Total (Sneeze) トータル(スニーズ) 0.44
Google Audio Set & Freesound Google Audio SetとFreesound 0.41
LibriSpeech LibriSpeech 0.42
Total (Speech) TASK dataset トータル(音声)TASKデータセット 0.69
Total (Noise) Google Audio Set & Freesound 総(能) Google Audio SetとFreesound 0.45
16 kHz 16 kHz 16kHz 16kHz 0.78
— 16 kHz 16 kHz — 16kHz 16kHz 0.60
— 44.1 kHz 16 kHz — 44.1kHz 16kHz 0.61
— 1013 9750 10763 2326 56 2382 12714 1027 13741 — 1013 9750 10763 2326 56 2382 12714 1027 13741 0.42
Total audio 13.34 mins 2.14 hours 2.14 hours 22.48 mins 2.54 hours 2.91 hours 2.79 hours 11.13 mins 2.79 hours 全音声13.34分2.14時間22.48分2.54時間2.91時間11.13時間2.79時間 0.64
Average length Standard deviation 0.79 sec 0.79 sec 0.79 sec 0.58 sec 2.72 mins 4.39 sec 0.79 sec 0.65 sec 0.79 sec 平均長 標準偏差 0.79 sec 0.79 sec 0.58 sec 2.72 mins 4.39 sec 0.79 sec 0.65 sec 0.79 sec 0.61
0.21 sec 0.23 sec 0.23 sec 0.14 sec 0.91 mins 0.42 sec 0.23 sec 0.26 sec 0.23 sec 0.21 sec 0.23 sec 0.23 sec 0.14 sec 0.91 mins 0.42 sec 0.23 sec 0.23 sec 0.23 sec 0.30
Fig. 2: Transfer learning architecture for the CNN: Cross-validation on the pre-training data produced optimal results when three convolutional layers (256, 128 & 64) with (2 × 2) kernels were used, followed by (2, 2) max-pooling. 図2: CNNのトランスファーラーニングアーキテクチャ: 事前学習データに対するクロスバリデーションは、3つの畳み込み層(256, 18, 64)と(2×2)カーネルを使用し、次いで(2, 2)マックスプールを用いて最適な結果を得た。 0.81
The outputs of these three convolutional layers were flattened and passed through two fully connected layers (with a dropout rate of 0.3), each consisting 512, 128 relu units. これら3つの畳み込み層の出力はフラット化され、2つの完全連結層(ドロップアウトレート0.3)を通過し、それぞれ512,128 reluユニットからなる。 0.79
The final fully connected layer consists of 3 softmax units. 最後の完全連結層は3つのソフトマックスからなる。 0.69
To apply transfer learning, the final two layers were taken away and was replaced by two fully connected layers with 16 and 2 units for two-class (TB and COVID-19) cough classification and with 16 and 3 units for three-class (TB, COVID-19 and healthy) cough classification. 移行学習を応用するため, 最終2層を除去し, 16および2層を2級(TB, COVID-19), 16および3層を3級(TB, COVID-19, 健康)の2層に置き換えた。
訳抜け防止モード: 転写学習を適用する。 最後の2つの層は取り去られ、16と2のユニットで2つのクラス(TBとCOVID-19)で完全に接続された2つの層に置き換えられた。 16台と3台で3種類(TB、COVID-19) and healthy ) cough classification.
0.73
TABLE III: Feature extraction hyperparameters. TABLE III: 特徴抽出ハイパーパラメータ。 0.81
By varying the MFCCs between 13 & 65, frame lengths between 512 & 4096 and no of frames between 70 & 200, the spectral resolutions of the audio have been varied over a large range. 13と65のMFCC、512と4096のフレーム長と70と200のフレーム長の変化により、オーディオのスペクトル分解能は広範囲にわたって変化してきた。 0.69
Hyperparameters MFCCs (M) ハイパーパラメータ mfcc (複数形 mfccs) 0.63
Frame length (F) Segments (S) フレーム長(F)セグメント(S) 0.79
Description lower order MFCCs to keep 解説 低次のMFCCは維持する 0.69
into which audio is segmented 音声がセグメント化され 0.76
no. of frames extracted from audio ダメよ 音声から抽出したフレームの 0.64
Range 13 × k, where k = 1, 2, 3, 4, 5 範囲 13 × k, ここで k = 1, 2, 3, 4, 5 0.80
2k, where k = 9, 10, 11, 12 10 × k, where k = 7, 10, 12, 15 2K どこに k = 9, 10, 11, 12 10 × k, ここで k = 7, 10, 12, 15
訳抜け防止モード: 2K どこに k = 9, 10, 11, 12 10 × k である。 k = 7 , 10 , 12 , 15
0.84
V. RESULTS V. ResuLTS 0.37
A. TB and COVID-19 cough classification A. TB と COVID-19 コークス分類 0.73
For the initial classification task in Table VI, the Resnet50 architecture has performed the best by producing the highest mean F1-score of 0.9042 and mean AUC of 0.9190 with the 表 VI の最初の分類作業では、Resnet50 アーキテクチャは、平均 F1 スコアが 0.9042 で平均 AUC が 0.9190 である。
訳抜け防止モード: Table VIの最初の分類タスクでは、Resnet50アーキテクチャが最高に機能した。 平均F1スコアは0.9042で平均AUCは0.9190である
0.80
σF 1 of 0.83. σf 1 は 0.83 である。 0.58
Although the CNN and LSTM have produced a lower F1-score and AUC, the σF 1 has also been lower, 0.61 and 0.49 respectively, suggesting better generalisation and robustness over the folds for less deep architectures. CNNとLSTMはより低いF1スコアとAUCを生成するが、σF 1はそれぞれ0.61と0.49と低くなり、より深いアーキテクチャのために折り畳みよりもより高度な一般化と堅牢性を示している。 0.66
This also indicates that the very deep architectures such as a Resnet50, although able to perform better, are prone to over-fitting. これはまた、Resnet50のような非常に深いアーキテクチャは、パフォーマンスが良くても、過度に適合する傾向があることを示している。
訳抜け防止モード: これはまた Resnet50のような非常に深いアーキテクチャは、パフォーマンスが良くても、過度に適合する傾向がある。
0.72
The best feature hyperparameters have been 26 MFCCs, 1024 sample-long frames and 150 frames per event such as a cough. 最高性能のハイパーパラメータは26のMFCC、1024のサンプル長フレーム、1イベントあたり150フレームである。 0.72
To prevent over-fitting, we have applied transfer learning and noticed a slight improvement in the DNN classifiers’ performance. 過度な適合を防止するため、転送学習を適用し、DNN分類器の性能をわずかに改善した。 0.73
The F1-score and the AUC have increased to 0.9259 and 0.9245 and the σF 1 has decreased to 0.03 from the pre-trained Resnet50 classifier. f1-score と auc は 0.9259 と 0.9245 に増加し、σf 1 は事前訓練された resnet50 分類器から 0.03 に減少した。 0.59
A similar trend has also been noticed for CNN and LSTM classifiers, where their performance (F1-score and AUC) has also increased along with a lower σF 1. 同様の傾向が CNN や LSTM の分類器でも見られ、その性能 (F1-score と AUC) も σF 1 よりも低い値で向上している。 0.83
Although the CNN outperformed the LSTM initially, LSTM has outperformed the CNN after applying transfer learning. CNNは当初LSTMより優れていたが、LSTMは転写学習を適用してCNNより優れていた。 0.69
The mean ROC curves for the initial and pre-trained Resnet50 初期および事前訓練されたResnet50の平均ROC曲線 0.77
SPEECH SNEEZE NOISE HEALTHY COVID-19 COVID-19 DENSE LAYER WITH 512 UNITS TRANSFER LEARNING FOR TB & COVID-19 COUGH CLASSIFICATION TB LAYERS FIXED AFTER PRE-TRAINING PRE-TRAINING 256 CONVOLUTIONAL 2D KERNELS 128 CONVOLUTIONAL 2D KERNELS 64 CONVOLUTIONAL 2D KERNELS FEATURE MATRIX TB TRANSFER LEARNING FOR TB, COVID-19 & HEALTHY COUGH CLASSIFICATION 音声スニーズノイズ 健康なcovid-19密度層 512ユニットの転送学習 tb & covid-19 cough分類 256の畳み込み2dカーネル128の畳み込み2dカーネル 64の畳み込み2dカーネル tb、covid-19、健康なcoough分類のためのマトリックスtb転送学習
訳抜け防止モード: 2D KERNELS 128 ConvoLUTIONAL 2D KERNELS 64 CONvoLUTIONAL 2D KERNELS FEATURE MATRIX TBTRAFER LEARNING for TB & COVID-19 COUGH CLASSICATION TB TB LAYERS FIXED プレ- トレーニングプレ- 256 ConvoLUTIONAL 2D KERNELS 128 ConvoLUTIONAL 2D KERNELS 64 CONvoLUTIONAL 2D KERNELS FEATURE MATRIX TBTRAFER LEARNING for TB,COVID-19 健康コークスの分類
0.81
英語(論文から抽出)日本語訳スコア
TABLE V: Hyperparameters of the pre-trained networks: Feature extraction hyperparameters were adopted from our previous related work [12], [13], while classifier hyperparameters were optimised on the pre-training data using crossvalidation. 表 v: 事前学習されたネットワークのハイパーパラメータ: 先行研究 [12], [13] から特徴抽出ハイパーパラメータが採用され、一方、分類器ハイパーパラメータはクロスバリデーションを用いて事前学習データに最適化された。 0.72
Hyperparameters FEATURE EXTRACTION HYPERPARAMETERS Values M F S ハイパーパラメータ 特徴抽出ハイパーパラメータ値MFS 0.52
MFCCs Frame length MFCC フレーム長 0.57
Segments 39 150 セグメント 39 150 0.54
210 = 1024 210 = 1024 0.43
CLASSIFIER HYPERPARAMETERS 分類器ハイパーパラメーター 0.28
Hyperparameters Convolutional filters ハイパーパラメータ畳み込みフィルタ 0.79
Classifier CNN CNN 分類 CNN CNN 0.38
CNN, LSTM Values CNN, LSTM 価値 0.55
256 & 128 & 64 256 & 128 & 64 0.43
2 0.3 CNN, LSTM, Resnet50 2 0.3 cnn、lstm、resnet50 0.47
512 & 128 & 3 512 & 128 & 3 0.43
CNN, LSTM, Resnet50 cnn、lstm、resnet50 0.58
16 & 2 or 3 16および2または3 0.94
LSTM LSTM 512 & 256 & 128 10−3 = 0.001 LSTM LSTM 512 & 256 & 128 10−3 = 0.001 0.42
CNN, LSTM, Resnet50 cnn、lstm、resnet50 0.58
27 = 128 Kernel size Dropout rate 27 = 128 カーネルサイズドロップアウトレート 0.49
Dense layer units (for pre-training) Dense layer units (for fine-tuning) デンス層ユニット(予修訓練用)デンス層ユニット(微調整用) 0.80
LSTM units Learning rate Batch Size LSTM単位学習速度バッチサイズ 0.77
Fig. 3: The ROC curves for discriminating TB coughs from COVID-19 coughs: An AUC of 0.9190 is achieved from the Resnet50 and the highest AUC of 0.9245 is achieved after applying transfer learning to this Resnet50 architecture. 図3: TBコークスとCOVID-19コークスを識別するROC曲線: Resnet50からAUC 0.9190を達成し、このResnet50アーキテクチャに転写学習を適用した後、最高AUC 0.9245を達成。 0.73
Both systems achieve 96% and 93% sensitivity respectively at 80% specificity, thus exceed the community-based TB Triage test requirement of 90% sensitivity at 70% specificity set by WHO. どちらのシステムもそれぞれ80%の特異度で96%と93%の感度を達成し、whoが設定した70%の特異度でコミュニティベースのtbトリアージテスト要求を90%の感度で上回った。 0.65
are shown in Figure 3. These two systems achieve 96% and 93% sensitivity respectively at 80% specificity. 図3に示す。 これら2つのシステムは、それぞれ96%と93%の感度を80%の特異性で達成する。 0.59
Thus they exceed the community-based TB Triage test requirement of 90% sensitivity at 70% specificity set by WHO [42]. 従って,who [42] が設定した70%特異度で,コミュニティベースのtbトリアージテスト要求を90%以上超えた。 0.62
B. TB and COVID-19 and healthy cough classification B. TB と COVID-19 の健康的分類 0.82
We observe a similar pattern in three-class classification as well. 同様のパターンを3クラス分類でも観察する。 0.77
Table VII shows that the highest F1-score of 0.8578 has been achieved from the Resnet50 classifier with a σF 1 of 0.67 from the best feature hyperparameters of 39 MFCCs, 1024 sample-long frames and 120 frames per cough. 表 vii は、最大で 0.8578 の f1-score が resnet50 分類器によって達成されたことを示している。
訳抜け防止モード: 表7は、最も高いF1スコアの0.8578がResnet50分類器から達成され、最高の特徴パラメータの39 MFCCからσF 1の0.67が得られたことを示している。 1024サンプル - 長いフレームと1周あたり120フレーム。
0.59
At the same time, CNN and LSTM produce the F1-scores of 0.8220 and 0.8125 with σF 1 of 0.41 and 0.49 respectively. 同時に、cnn と lstm はそれぞれ 0.8220 と 0.8125 であり、σf 1 はそれぞれ 0.41 と 0.49 である。 0.68
Both these F1-scores and σF 1 scores are lower than those produced by これらのF1スコアとσF 1スコアはどちらも、生成したスコアよりも低い。 0.49
the Resnet50. As this is a three-class classification, we have replaced AUC with accuracy in Table VII. resnet50。 これは3クラスの分類なので、AUCをTable VIIの精度で置き換えました。 0.67
Again, the signs of overfitting are clear in these performances and we apply transfer learning next. 繰り返しになるが、オーバーフィットの兆候はこれらのパフォーマンスにおいて明確であり、次に転送学習を適用する。
訳抜け防止モード: 繰り返しますが オーバーフィットの兆候は これらのパフォーマンスにおいて明らかです 次に転送学習を応用します
0.61
Application of the transfer learning has improved the classification performance by a small margin. 転送学習の適用により,分類性能は小さいマージンで向上した。 0.83
The F1-score from the Resnet50 rose to 0.8631 and the σF 1 decreased to 0.11. Resnet50のF1スコアは0.8631に上昇し、σF 1は0.11に低下した。 0.56
The performances from CNN and LSTM have also improved, as the F1-scores of 0.8455 and 0.8427 have been achieved from these two DNN classifiers, respectively. CNNとLSTMのパフォーマンスも改善されており、F1スコアの0.8455と0.8427はそれぞれ2つのDNN分類器から達成されている。 0.66
Their σF 1 scores are also much lower: 0.07 and 0.09 respectively. σF 1のスコアも、それぞれ0.07と0.09である。 0.71
Although, pre-trained CNN and LSTM models have produced lower F1scores, their σF 1 is also lower, unlike in the previous twoclass classification. 事前訓練されたCNNとLSTMモデルはF1スコアが低いが、以前の2クラス分類とは異なり、σF 1も低い。 0.70
This shows that the application of transfer learning helps the classifier to be more robust in a classification task. これは、転送学習の適用によって分類器が分類タスクにおいてより堅牢になることを示している。 0.66
VI. DISCUSSION Although many previous studies have shown that both TB and COVID-19 can be discriminated from healthy coughs, here we show that there are unique disease signatures present in cough audio which is responsible for the machine learning classifiers to discriminate TB coughs from COVID-19 coughs. VI。 討論 これまで多くの研究は、tbとcovid-19の両方が健康なcooughsと区別できることを示したが、ここでは、coough audioには、covid-19cooughsとtbcooughsを区別する機械学習分類器に責任があるユニークな病気のシグネチャが存在することを示している。 0.52
We have experimentally found that when the cough data are limited, classifier performance can be poor and they are also prone to overfitting. 実験により,coughデータに制限がある場合,分類器の性能は低く,過度に適合し易いことがわかった。 0.70
Very deep architectures generally produce higher mean F1-scores, however with the expense of higher variances along the cross-validation folds. 非常に深いアーキテクチャは一般により平均的なF1スコアを生成するが、クロスバリデーション・フォールドに沿って高い分散を犠牲にしている。 0.47
Our study shows that the application of transfer learning using vocal data which do not even include cough can be used to improve classifiers’ performance in disease classification. 本研究は,coughを含まない声帯データを用いた転送学習の応用が,分類器の病害分類における性能向上に有用であることを示す。 0.79
VII. CONCLUSION AND FUTURE WORK VII。 コンキュレーション及び将来の作業 0.71
Here in this study, a deep learning based cough classifier which can discriminate between TB coughs and COVID19 coughs and healthy coughs has been presented, where a subjective test confirmed that respiratory disease can’t be confirmed just by listening to the cough audio. そこで本研究では, tb coughとcovid-19 coughと, 健全なcoughとを区別可能な, 深層学習ベースのcough分類器が提示され, 主観的検査により, cough audioを聴くだけでは呼吸器疾患が確認できないことを確認した。 0.80
The cough audio recordings contain various types and levels of background noise as they were collected inside a TB research centre, recording booth and by using smartphones from subjects around the globe. coughオーディオ録音は、tb研究センター、録音ブース、世界中の被験者のスマートフォンを使って収集された様々な種類のバックグラウンドノイズを含んでいる。 0.70
This cough data include 47 TB subjects, 229 COVID-19 subjects and 1498 healthy subjects contributing 1.68 hours, 18.54 minutes and 1.69 hours of audio respectively. このデータは、47 TBの被験者、229 COVID-19の被験者、1498 人の健康な被験者がそれぞれ1.68時間18.54分、1.69 時間の音声を提供している。 0.50
Application of transfer learning has yielded better performance in our previous studies, thus a separate data containing 2.14 hours of sneeze, 2.91 hours of speech and 2.79 hours of noise such as door slamming, engine running etc. have been used to pre-train three deep neural networks: CNN, LSTM and Resnet50. トランスファー・ラーニングの適用により,従来の研究よりも優れた性能が得られたため,cnn,lstm,resnet50の3つの深層ニューラルネットワークを事前学習するために,スニーズ2.14時間,音声2.91時間,ドアスラムやエンジン走行など2.79時間のノイズを含む別のデータを用いた。 0.75
The class-imbalance in our dataset was addressed by using SMOTE data balancing technique during the training process and using performance metrics such as F1-score and AUC. データセットのクラス不均衡は、トレーニングプロセス中にSMOTEデータバランス技術を使用し、F1スコアやAUCなどのパフォーマンス指標を用いて対処した。 0.70
The classifiers were evaluated by using a 5-fold nested cross-validation scheme. 分類器は5倍ネスト型クロスバリデーションスキームを用いて評価した。 0.63
The experimental results show that the highest F1-score of 0.9259 has been achieved from a pretrained Resnet50 for the two-class (TB vs COVID-19) cough 実験の結果,2クラス(tb対covid-19)で事前訓練されたresnet50により,f1-score 0.9259の最高値が達成された。 0.66
96% 93% 96% 93% 0.43
英語(論文から抽出)日本語訳スコア
TABLE VI: Classifying TB and COVID-19 coughs: Resnet50 has performed the best in discriminating TB coughs from COVID-19 coughs. TABLE VI: TB と COVID-19 を分類する: Resnet50 は TB と COVID-19 を識別する最良の方法である。 0.68
The initial experiment achieved the F1-score of 0.9042 and the AUC of 0.9190, along with the σF 1 of 0.83. 最初の実験では0.9042のF1スコアと0.9190のAUC、σF1の0.83が達成された。 0.65
After applying the transfer learning, F1-score and AUC increase to 0.9259 and 0.9245 and σF 1 decreases to 0.03. 移行学習を適用した後、F1スコアとAUCは0.9259、0.9245、σF1は0.03に減少する。
訳抜け防止モード: 転校学習を施した後 f1-score と auc は 0.9259 と 0.9245 に増加する σf 1 は 0.03 に減少する。
0.65
Classifier Resnet50 分類 Resnet50 0.36
CNN LSTM Best Feature CNN LSTM ベスト機能 0.58
Hyperparameters M = 26, F = 1024, S = 150 M = 26, F = 2048, S = 100 M = 39, F = 2048, S = 120 ハイパーパラメータ M = 26、F = 1024、S = 150M = 26、F = 2048、S = 100M = 39、F = 2048、S = 120 0.52
Resnet50 + Transfer Learning LSTM + Transfer Learning CNN + Transfer Learning Resnet50 + Transfer Learning LSTM + Transfer Learning CNN + Transfer Learning 0.46
Table V ” ” Best Classifier Hyperparameters 表 V ” ” 最良の分類器ハイパーパラメーター 0.58
(Optimised inside nested cross-validation) (ネスト型クロスバリデーション内で最適化) 0.44
Default Resnet50 (Table 1 in [37]) デフォルトのresnet50 ([37]のテーブル1) 0.79
α1=256, α2=2, α3=0.3, α4=32, α7=256 α1=256, α2=2, α3=0.3, α4=32, α7=256 0.22
α3=0.1, α4=32, α5=128, α6=0.001, α7=256 α3=0.1, α4=32, α5=128, α6=0.001, α7=256 0.20
Default Resnet50 (Table 1 in [37]) デフォルトのresnet50 ([37]のテーブル1) 0.79
Table V ” F1-score 0.9042 0.8887 0.8802 0.9259 0.9134 0.9127 表 V ” F1-score 0.9042 0.8887 0.8802 0.9259 0.9134 0.9127 0.47
σF 1 Performance 83×10−2 61×10−2 49×10−2 3×10−2 4×10−2 4×10−2 σF 1 Performance 83×10−2 61×10−2 49×10−2 3×10−2 4×10−2 4×10−2 0.29
AUC 0.9190 0.8895 0.8884 0.9245 0.9124 0.9211 AUC 0.9190 0.8895 0.8884 0.9245 0.9124 0.9211 0.24
TABLE VII: Classifying TB and COVID-19 and healthy coughs: Resnet50 has again been the classifier of the choice by producing the highest F1-score of 0.8578 with a σF 1 of 0.67. TABLE VII: TB と COVID-19 の分類と健康なうどい: Resnet50 は、σF 1 の 0.67 で、最高 F1 スコア 0.8578 を生産することで、再び選択の分類器となった。
訳抜け防止モード: TABLE VII : TBとCOVID-19の分類と健康なうず : Resnet50 が再び選択の分類子となった 最も高いF1スコアは0.8578で、σF 1は0.67である。
0.72
This performance has been improved to an F1-score of 0.8631 with a lower σF 1 of 0.11 after applying the transfer learning. この性能は、転送学習を適用した後、より低いσF1の0.8631のF1スコアに改善された。 0.64
Classifier Resnet50 分類 Resnet50 0.36
CNN LSTM Best Feature CNN LSTM ベスト機能 0.58
Hyperparameters M = 39, F = 1024, S = 120 M = 26, F = 1024, S = 150 M = 26, F = 2048, S = 120 ハイパーパラメータ M = 39, F = 1024, S = 120M = 26, F = 1024, S = 150M = 26, F = 2048, S = 120 0.53
Resnet50 + Transfer Learning Resnet50 + Transfer Learning 0.49
CNN + Transfer Learning LSTM + Transfer Learning CNN + Transfer Learning LSTM + Transfer Learning 0.42
Table V ” ” Best Classifier Hyperparameters 表 V ” ” 最良の分類器ハイパーパラメーター 0.58
(Optimised inside nested cross-validation) (ネスト型クロスバリデーション内で最適化) 0.44
Default Resnet50 (Table 1 in [37]) デフォルトのresnet50 ([37]のテーブル1) 0.79
α1=256, α2=2, α3=0.3, α4=16, α7=128 α1=256, α2=2, α3=0.3, α4=16, α7=128 0.22
α3=0.1, α4=32, α5=128, α6=0.001, α7=256 α3=0.1, α4=32, α5=128, α6=0.001, α7=256 0.20
Default Resnet50 (Table 1 in [37]) デフォルトのresnet50 ([37]のテーブル1) 0.79
Table V ” F1-score 0.8578 0.8220 0.8125 0.8631 0.8455 0.8427 表 V ” F1-score 0.8578 0.8220 0.8125 0.8631 0.8455 0.8427 0.47
σF 1 Performance 67×10−2 41×10−2 49×10−2 11×10−2 7×10−2 9×10−2 σF 1 Performance 67×10−2 41×10−2 49×10−2 11×10−2 7×10−2 9×10−2 0.29
Accuracy 0.8662 0.8311 0.8181 0.8689 0.8564 0.8490 正確さ 0.8662 0.8311 0.8181 0.8689 0.8564 0.8490 0.46
classification task and the highest F1-score of 0.8631 has been achieved from a pre-trained Resnet50 for three-class (TB vs COVID-19 vs healthy) cough classification task. resnet50 for three-class (tb vs covid-19 vs healthy) cough分類タスクにより、分類タスクと最高値のf1-score 0.8631が達成された。 0.68
The pretrained Resnet50 architecture also produces the highest AUC of 0.9245 with 96% sensitivity at 80% specificity, which exceeds the TB triage test requirement of 90% at 70% specificity. resnet50アーキテクチャは、80%の特異度で96%の感度を持つ0.09245の最高aucを生成し、70%の特異度で90%のtbトリアージテスト要求を上回った。 0.66
The results also show that the application of transfer learning has improved the performance and generalises better over the cross-validation folds, making the classifiers more robust. また,トランスファー学習の応用によって性能が向上し,クロスバリデーションよりも汎用性が向上し,分類器の堅牢性が向上した。 0.76
The best feature hyperparameters also contain higher order of MFCCs, suggesting auditory patterns responsible for disease classification are not perceivable by the human auditory system. 最高の特徴パラメータは、より高いMFCCの順序を含み、疾患分類に責任がある聴覚パターンは人間の聴覚システムでは認識できないことを示唆している。 0.62
This type of cough audio classification is non-contact, cost-effective and can easily be deployed to a smartphone, thus it can be a useful tool for both TB and COVID-19 screening, especially in a developing country setting. このタイプのcoughオーディオ分類は非接触で費用対効果が高く、スマートフォンに容易にデプロイできるため、特に途上国では、tbとcovid-19スクリーニングの両方に有用なツールとなる。 0.69
As for the future work, we are investigating the length of the coughs required for effective overall classification scores. 今後の研究として, 総合的分類スコアの有効化に要するcoughsの長さについて検討する。 0.68
We are also compiling a bigger dataset containing both TB and COVID-19 patients to improve the existing cough classification models and deploying the TensorFlow-based models on an Android platform. また、TBとCOVID-19の両方の患者を含むより大きなデータセットをコンパイルして、既存のコウ分類モデルを改善し、TensorFlowベースのモデルをAndroidプラットフォームにデプロイしています。
訳抜け防止モード: tb患者とcovid-19患者の両方を含む大きなデータセットもコンパイルしています 既存のcough分類モデルを改善し、tensorflowベースのモデルをandroidプラットフォームにデプロイする。
0.72
ACKNOWLEDGMENT This research was supported by the South African Medical Research Council (SAMRC) through its Division of Research Capacity Development under the SAMRC Intramural Postdoctoral programme and the Research Capacity Development Initiative as well as the COVID-19 IMU EMC allocation from funding received from the South African National Treasury. 承認 この研究は南アフリカ医学研究評議会(samrc)によって、samrc intramural postdoctoral programと研究能力開発イニシアチブ(research capacity development initiative)による研究能力開発部門と、南アフリカ国立財務省から受け取った資金からcovid-19 imu emcの割り当てによって支援された。 0.54
We also acknowledge funding from the EDCTP2 programme supported by the European Union (grant SF1401, OPTI- また、欧州連合が支援するEDCTP2プログラム(SF1401、OPTI)からの資金提供も認めます。 0.68
MAL DIAGNOSIS; grant RIA2020I-3305, CAGE-TB) and the National Institute of Allergy and Infection Diseases of the National Institutes of Health (U01AI152087). 精神疾患 ria2020i-3305, cage-tb) と国立アレルギー感染症研究所 (u01ai152087) の感染症。 0.62
We would like to thank the South African Centre for High Performance Computing (CHPC) for providing computational resources on their Lengau cluster for this research and gratefully acknowledge the support of Telkom South Africa. 我々は,南アフリカハイパフォーマンスコンピューティングセンター(CHPC)に,この研究のためにレンガウクラスタに計算資源を提供したことを感謝します。
訳抜け防止モード: 南アフリカハイパフォーマンスコンピューティングセンター(CHPC)に感謝します。 この研究のためにレンガウクラスタに計算資源を提供する そして、南アフリカのテルコムの支持に感謝の意を表した。
0.68
We also thank the Clinical Mycobacteriology & Epidemiology (CLIME) clinic team for assisting in data collection, especially Sister Jane Fortuin and Ms. Zintle Ntwana. また,臨床 mycobacteriology & epidemiology (clime) クリニックチームによるデータ収集の支援,特に姉妹の jane fortuin 氏と zintle ntwana 氏に感謝する。 0.68
We also especially thank Igor Miranda, Corwynne Leng, Renier Botha, Jordan Govendar and Rafeeq du Toit for their support in data collection and annotation. また、Igor Miranda氏、Corwynne Leng氏、Renier Botha氏、Jordan Govendar氏、Rafeeq du Toit氏によるデータ収集とアノテーションのサポートに感謝しています。 0.56
The content and findings reported are the sole deduction, view and responsibility of the researcher and do not reflect the official position and sentiments of the SAMRC, EDCTP2, European Union or the funders. 報告された内容と結果は、研究者の唯一の推論、見解、責任であり、SAMRC、EDCTP2、欧州連合、または資金提供者の公式な立場や感情を反映していない。 0.51
REFERENCES [1] World Health Organization, “Tuberculosis; who is most at risk?,” Mar. 参考 [1]世界保健機関は「結核、最も危険にさらされているのは誰か? 0.54
2020, https://www.who.int/ news-room/fact-sheet s/detail/tuberculosi s. 2020年、https://www.who.int/ news-room/fact-sheet s/detail/tuberculosi s.com。 0.26
[2] Katherine Floyd, Philippe Glaziou, Alimuddin Zumla, and Mario Raviglione, tuberculosis epidemic and progress in care, prevention, and research: an overview in year 3 of the End TB era,” The Lancet Respiratory Medicine, vol. [2] katherine floyd, philippe glaziou, alimuddin zumla, mario raviglione, 結核の流行と治療、予防、研究の進歩: 末期tb時代の3年の概要。
訳抜け防止モード: [2 ]キャサリン・フロイド、フィリップ・グラズー、アリムディン・ズムラ マリオ・ラヴィリオーネは結核の流行と治療、予防、研究の進歩について : 終末TB時代の3年間の概観」と述べた。 Lancet Respiratory Medicine, vol。
0.63
6, no. 4, pp. 299–314, 2018. 6, No. 4, pp. 299–314, 2018。 0.46
“The global [3] Puneet Kumar Dewan, Jennifer Grinsdale, Sally Liska, Ernest Wong, Robert Fallstad, and L Masae Kawamura, “Feasibility, acceptability, and cost of tuberculosis testing by whole-blood interferon-gamma assay,” BMC infectious diseases, vol. 「グローバル」 [3] puneet kumar dewan, jennifer grinsdale, sally liska, ernest wong, robert fallstad, l masae kawamura, “全血インターフェロンガンマアッセイによる結核検査の可能性, 受容性, コスト” (bmc感染症)
訳抜け防止モード: 「グローバル」 [3]Puneet Kumar Dewan, Jennifer Grinsdale, Sally Liska, Ernest Wong氏、Robert Fallstad氏、L Masae Kawamura氏。 血液インターフェロン(英語版)-ガンマアッセイ(英語版)による結核検査の受容性とコスト」。 BMC感染症, vol。
0.70
6, no. 1, pp. 47, 2006. 6巻、p.47、2006年。 0.29
[4] Freddie Bwanga, Sven Hoffner, Melles Haile, and Moses L Joloba, “Direct susceptibility testing for multi drug resistant tuberculosis: a meta-analysis,” BMC infectious diseases, vol. 4]freddie bwanga, sven hoffner, melles haile, moses l joloba, “多剤耐性結核に対する直接感受性試験: メタ分析” bmc感染症, vol。 0.58
9, no. 1, pp. 67, 2009. 9, No. 1, pp. 67, 2009 0.37
[5] Anastasios Konstantinos, “Testing for tuberculosis,” 2010. 5] anastasios konstantinos, “testing for tuberculosis” 2010年。 0.59
[6] AB Chang, GJ Redding, and ML Everard, “Chronic wet cough: protracted bronchitis, chronic suppurative lung disease and bronchiectasis,” Pediatric Pulmonology, vol. AB Chang, GJ Redding, ML Everard, “Chronic wet cough: protracted bronchitis, chronic suppurative lung disease and bronchiectasis”, Pediatric Pulmonology, vol。
訳抜け防止モード: [6 ]ab chang, gj redding, ml everard。 慢性湿式せき : 難治性気管支炎, 慢性難治性肺疾患, 気管支拡張症 小児肺疾患(第2報)
0.72
43, no. 6, pp. 519–531, 2008. 43, No. 6, pp. 519–531, 2008 0.44
英語(論文から抽出)日本語訳スコア
[7] John Hopkins University, ジョン・ホプキンス大学[7] 0.64
“COVID-19 Dashboard by the Cenfor Systems Science and Engineering (CSSE),” May 2022, COVID-19 Dashboard by the Cenfor Systems Science and Engineering (CSSE)”. 2022年5月 0.86
ter https://coronavirus. jhu.edu/map.html. コロナウイルス.jhu.edu/map.html 0.41
[8] GHR Botha, G Theron, RM Warren, M Klopper, K Dheda, PD Van Helden, and TR Niesler, “Detection of Tuberculosis by Automatic Cough Sound Analysis,” Physiological Measurement, vol. [8] ghr botha, g theron, rm warren, m klopper, k dheda, pd van helden, tr niesler, “自動せき音分析による結核の検出” 生理的測定, vol。 0.60
39, no. 4, pp. 045005, 2018. 39, no. 4, pp. 045005, 2018。 0.78
[9] Angelo Carf`ı, Roberto Bernabei, Francesco Landi, et al , “Persistent symptoms in patients after acute COVID-19,” JAMA, vol. 9]angelo carf`ı, roberto bernabei, francesco landi, et al, “急性新型コロナウイルス(covid-19)後の患者に持続的な症状がある”、とjamaは言う。
訳抜け防止モード: [9]Angelo Carf`ı, Roberto Bernabei, Francesco Landi, 急性新型コロナウイルス(COVID-19)後の患者の持続性症状」など。 JAMA, vol。
0.76
324, no. 6, pp. 603–605, 2020. 324, No. 6, pp. 603–605, 2020。 0.48
[10] Dawei Wang, Bo Hu, Chang Hu, Fangfang Zhu, Xing Liu, Jing Zhang, Binbin Wang, Hui Xiang, Zhenshun Cheng, Yong Xiong, et al , “Clinical characteristics of 138 hospitalized patients with 2019 novel coronavirus– infected pneumonia in Wuhan, China,” JAMA, vol. JAMAは、[10]Dawei Wang, Bo Hu, Chang Hu, Fangfang Zhu, Xing Liu, Jing Zhang, Binbin Wang, Hui Xiang, Zhenshun Cheng, Yong Xiong, et al, “2019年の新型コロナウイルス感染者138人の臨床的特徴は、中国の武漢で感染性肺炎を発症した。 0.87
323, no. 11, pp. 1061–1069, 2020. 323, No. 11, pp. 1061–1069, 2020。 0.48
[11] Madhurananda Pahar, Marisa Klopper, Byron Reeve, Rob Warren, Grant Theron, and Thomas Niesler, “Automatic cough classification for tuberculosis screening in a real-world environment,” Physiological Measurement, vol. 11]madhurananda pahar氏、marisa klopper氏、byron reeve氏、rob warren氏、grant theron氏、thomas niesler氏、"現実世界における結核検診の自動的分類"(automatic cough classification for tuberculosis screening in a real-world environment)。
訳抜け防止モード: [11]Madhurananda Pahar, Marisa Klopper, Byron Reeve Rob Warren, Grant Theron, Thomas Niesler, “実世界における結核検診の自動分類”。 生理学的な測定。
0.69
42, no. 10, pp. 105014, oct 2021. 42, no. 10, pp. 105014、2021年10月。 0.80
[12] Madhurananda Pahar, Marisa Klopper, Robin Warren, and Thomas Niesler, “COVID-19 cough classification using machine learning and global smartphone recordings,” Computers in Biology and Medicine, vol. 1.[12]Madhurananda Pahar, Marisa Klopper, Robin Warren, Thomas Niesler, “COVID-19 cough classification using machine learning and global smartphone recordings”, Computers in Biology and Medicine, vol。 0.42
135, pp. 104572, 2021. 135, pp. 104572, 2021。 0.41
[13] Madhurananda Pahar, Marisa Klopper, Robin Warren, and Thomas Niesler, “COVID-19 detection in cough, breath and speech using deep transfer learning and bottleneck features,” Computers in Biology and Medicine, vol. 13] madhurananda pahar、marisa klopper、robin warren、thomas niesler、”深層伝達学習とボトルネック機能を用いたcovid-19 detection in cough, breath and speech using deep transfer learning and bottleneck features”。
訳抜け防止モード: 13] マドゥラナンダ・パハール、マリサ・クロッパー、ロビン・ウォーレン さらにthomas niesler氏は,“深層トランスファー学習とボトルネック機能を用いた,covid-19検出の口臭,呼吸,発話”について語る。 生物学と医学のコンピュータ。
0.70
141, pp. 105153, 2022. 141, pp. 105153, 2022。 0.82
[14] Christian Infante, Daniel Chamberlain, R Fletcher, Y Thorat, and Rahul Kodgule, “Use of cough sounds for diagnosis and screening of pulmonary disease,” in 2017 IEEE Global Humanitarian Technology Conference (GHTC). 2017年のIEEE Global Humanitarian Technology Conference (GHTC)では、[14]Christian Infante, Daniel Chamberlain, R Fletcher, Y Thorat, Rahul Kodgule, “cough sound for diagnosis and screening of lung disease” と題された。 0.81
IEEE, 2017, pp. 1–10. 同上、2017年、p.1-10。 0.41
[15] Jordi Laguarta, Ferran Hueto, and Brian Subirana, “COVID-19 Artificial IEEE Open Intelligence Diagnosis using only Cough Recordings,” Journal of Engineering in Medicine and Biology, vol. Jordi Laguarta, Ferran Hueto, Brian Subirana, “COVID-19 Artificial IEEE Open Intelligence Diagnosis using only Cough Recordings”, Journal of Engineering in Medicine and Biology, vol.[15] Jordi Laguarta, Ferran Hueto, Brian Subirana。
訳抜け防止モード: Jordi Laguarta, Ferran Hueto, Brian Subirana, “COVID-19” Cough Recordingsのみを用いた人工IEEEオープンインテリジェンス診断,“Journal of Engineering in Medicine and Biology,vol.
0.79
1, pp. 275–281, 2020. pp. 275-281, 2020。 0.69
[16] Brian H Tracey, Germ´an Comina, Sandra Larson, Marjory Bravard, Jos´e W L´opez, and Robert H Gilman, “Cough detection algorithm for monitoring patient recovery from pulmonary tuberculosis,” in 2011 Annual International Conference of the IEEE Engineering in Medicine and Biology Society. Brian H Tracey, Germ ́an Comina, Sandra Larson, Marjory Bravard, Jos ́e W L ́opez, Robert H Gilman, “Cough detection algorithm for monitoring patient recovery from lung tuberculosis” in 2011 International Conference of the IEEE Engineering in Medicine and Biology Society.
訳抜け防止モード: [16 ]Brian H Tracey, Germ ́an Comina, Sandra Larson, Marjory Bravard, Jos ́e W L ́opez, and Robert H Gilman 肺結核患者の回復をモニタリングするための粗度検出アルゴリズム」 2011年度 IEEE Engineering in Medicine and Biology Society に参加して
0.86
IEEE, 2011, pp. 6017–6020. IEEE, 2011, pp. 6017–6020。 0.45
[17] Lara Orlandic, Tomas Teijeiro, and David Atienza, “The COUGHVID crowdsourcing dataset: A corpus for the study of large-scale cough analysis algorithms,” Scientific Data, vol. 17] lara orlandic氏、tomas teijeiro氏、david atienza氏、”the coughvid crowdsourcing dataset: a corpus for the study of large-scale cough analysis algorithms” scientific data, vol。
訳抜け防止モード: [17 ]ララ・オーランド、トマス・テイエロ、デビッド・アティエンザ。 「COUGHVIDクラウドソーシングデータセット : 大規模コークス分析アルゴリズム研究のためのコーパス」 科学データ。
0.54
8, no. 1, pp. 1–10, 2021. 8, No. 1, pp. 1-10, 2021。 0.87
[18] Neeraj Sharma, Prashant Krishnan, Rohit Kumar, Shreyas Ramoji, Srikanth Raj Chetupalli, Nirmala R., Prasanta Kumar Ghosh, and Sriram Ganapathy, “Coswara–A Database of Breathing, Cough, and Voice Sounds for COVID-19 Diagnosis,” in Proc. [18]Neeraj Sharma, Prashant Krishnan, Rohit Kumar, Shreyas Ramoji, Srikanth Raj Chetupalli, Nirmala R., Prasanta Kumar Ghosh, and Sriram Ganapathy, “Coshara–A Database of Breathing, Cough, and Voice Sounds for COVID-19 diagnosis”. Proc. Proc.
訳抜け防止モード: [18 ]Neeraj Sharma, Prashant Krishnan, Rohit Kumar, Shreyas Ramoji, Srikanth Raj Chetupalli, Nirmala R., Prasanta Kumar Ghosh そして、Sriram Ganapathy氏は、Procで“Coshara – A Database of Breathing, Cough, and Voice Sounds for COVID-19 diagnosis, ”と題している。
0.92
Interspeech 2020, 2020, pp. 4811–4815. 2020年、p.4811-4815。 0.64
[19] Bj¨orn W. Schuller, Anton Batliner, Christian Bergler, Cecilia Mascolo, Jing Han, Iulia Lefter, Heysem Kaya, Shahin Amiriparian, Alice Baird, Lukas Stappen, Sandra Ottl, Maurice Gerczuk, Panaguiotis Tzirakis, Chlo¨e Brown, Jagmohan Chauhan, Andreas Grammenos, Apinan Hasthanasombat, Dimitris Spathis, Tong Xia, Pietro Cicuta, M. ˜Rothkrantz Leon J. Joeri Zwerts, Jelle Treep, and Casper Kaandorp, “The INTERSPEECH 2021 Computational Paralinguistics Challenge: COVID-19 Cough, COVID-19 Speech, Escalation & Primates,” in Proc. [19] Bj¨orn W. Schuller, Anton Batliner, Christian Bergler, Cecilia Mascolo, Jing Han, Iulia Lefter, Heysem Kaya, Shahin Amiriparian, Alice Baird, Lukas Stappen, Sandra Ottl, Maurice Gerczuk, Panaguiotis Tzirakis, Chlo¨e Brown, Jagmohan Chauhan, Andreas Grammenos, Apinan Hasthanasombat, Dimitris Spathis, Tong Xia, Pietro Cicuta, M. ˜Rothkrantz Leon J. Joeri Zwerts, Jelle Treep, and Casper Kaandorp, “The INTERSPEECH 2021 Computational Paralinguistics Challenge: COVID-19 Cough, COVID-19 Speech, Escalation & Primates,” in Proc.
訳抜け防止モード: 【19】bj ゾルン・w・シュラー、アントン・バットライナー、クリスチャン・ベルグラー cecilia mascolo, jing han, iulia lefter, heysem kaya, shahin amiriparian, alice baird, lukas stappen, sandra ottl, maurice gerczuk, panaguiotis tzirakis, クロエ・ブラウン、ジャグモハン・チャウハン、アンドレアス・グラメノス、apinan hasthanasombat、dimitris spathis、 tong xia, pietro cicuta, m. srothkrantz leon j. joeri zwerts, jelle treep, casper kaandorp, "the interspeech 2021 computational paralinguistics challenge : covid-19 cough,covid-19" proc (複数形 procs または procs)
0.68
Interspeech 2021, 2021, pp. 431–435. 2021, 2021, pp. 431-435。 0.75
[20] Ali Imran, Iryna Posokhova, Haneya N Qureshi, Usama Masood, Muhammad Sajid Riaz, Kamran Ali, Charles N John, MD Iftikhar Hussain, and Muhammad Nabeel, “AI4COVID-19: AI enabled preliminary diagnosis for COVID-19 from cough samples via an app,” Informatics in Medicine Unlocked, vol. Informatics in Medicine Unlocked, Vol.[20]Ali Imran, Iryna Posokhova, Haneya N Qureshi, Usama Masood, Muhammad Sajid Riaz, Kamran Ali, Charles N John, MD Iftikhar Hussain, Muhammad Nabeel, “AI4COVID-19: AIにより、アプリ経由の皮膚サンプルからCOVID-19の予備診断が可能。 0.87
20, pp. 100378, 2020. 20, pp. 100378, 2020。 0.82
[21] Alberto Tena, Francesc Clari`a, and Francesc Solsona, アルベルト・テナ(Alberto Tena)、フランチェスコ・クラリ(Francesc Clari)、フランチェスコ・ソルソナ(Francesc Solsona)。 0.42
“Automated detection of COVID-19 cough,” Biomedical Signal Processing and Control, vol. バイオメディカル・シグナル処理・制御「covid-19(covid-19)の自動化検出」について 0.50
71, pp. 103175, 2022. 71, pp. 103175, 2022。 0.81
[22] Madhurananda Pahar, Igor Miranda, Andreas Diacon, and Thomas Niesler, “Deep Neural Network based Cough Detection using Bedmounted Accelerometer Measurements,” in ICASSP 2021 - 2021 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2021, pp. 8002–8006. ICASSP 2021 - 2021 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2021, pp. 8002–8006.[22] Madhurananda Pahar, Igor Miranda, Andreas Diacon, Thomas Niesler, “Deep Neural Network based Cough Detection using Bedmounted Accelerometer Measurements” in ICASSP 2021 - 2021 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2021, pp. 8002–8006。
訳抜け防止モード: 22] マドゥラナンダ・パハール、イゴール・ミランダ、アンドレアス・ディアコン そしてthomas nieslerは、”ベッドマウント加速度計によるディープニューラルネットワークによるcough検出”だ。 in icassp 2021 - 2021 ieee international conference on acoustics, speech 信号処理(icassp) 2021, pp. 8002-8006。
0.64
[23] Madhurananda Pahar, Igor Miranda, Andreas Diacon, and Thomas Niesler, “Automatic Non-Invasive Cough Detection based on Accelerometer and Audio Signals,” Journal of Signal Processing Systems, pp. 1–15, 2022. [23]Madhurananda Pahar, Igor Miranda, Andreas Diacon, Thomas Niesler, “Automatic Non-Invasive Cough Detection based on Accelerometer and Audio Signals”. Journal of Signal Processing Systems, pp. 1–15, 2022.
訳抜け防止モード: 23] マドゥラナンダ・パハール、イゴール・ミランダ、アンドレアス・ディアコン とthomas nieslerは言う。“加速度計とオーディオ信号に基づく、非侵襲的な自動cough検出”だ。 journal of signal processing systems, pp. 1–15, 2022 を参照。
0.63
[24] Madhurananda Pahar, Igor Miranda, Andreas Diacon, and Thomas “Accelerometer-based bed occupancy detection for autoarXiv preprint [24]Madhurananda Pahar,Igor Miranda,Andreas Diacon,Thomas “Accelerometer-based bed occupancy detection for autoarXiv preprint
訳抜け防止モード: 24] マドゥラナンダ・パハール、イゴール・ミランダ、アンドレアス・ディアコン and thomas “accelerometer”--autoarxivプレプリントのためのベッド占有度検出
0.65
Niesler, matic, non-invasive long-term cough monitoring,” arXiv:2202.03936, 2022. niesler, matic, non-invasive long-term cough monitoring” arxiv:2202.03936, 2022。 0.32
[25] Ananya Muguli, Lancelot Pinto, Neeraj Sharma, Prashant Krishnan, Prasanta Kumar Ghosh, Rohit Kumar, Shreyas Ramoji, Shrirama Bhat, Srikanth Raj Chetupalli, Sriram Ganapathy, et al , “DiCOVA Challenge: Dataset, task, and baseline system for COVID-19 diagnosis using acoustics,” arXiv preprint arXiv:2103.09148, 2021. 25] ananya muguli, lancelot pinto, neeraj sharma, prashant krishnan, prasanta kumar ghosh, rohit kumar, shreyas ramoji, shrirama bhat, srikanth raj chetupalli, sriram ganapathy, et al , “dicova challenge: dataset, task, and base system for covid diagnosis using acoustics” arxiv preprint arxiv:2103.09148, 2021”. arxiv. arxiv(英語)
訳抜け防止モード: [25 ]Ananya Muguli,Lancelot Pinto,Neeraj Sharma, Prashant Krishnan, Prasanta Kumar Ghosh, Rohit Kumar, Shreyas Ramoji, Shrirama Bhat Srikanth Raj Chetupalli, Sriram Ganapathy, et al, “DiCOVA Challenge : Dataset, Task, and baseline system for COVID-19 diagnosis using acoustics” arXiv preprint arXiv:2103.09148 , 2021。
0.44
[26] Jason Van Hulse, Taghi M Khoshgoftaar, and Amri Napolitano, “Experimental perspectives on learning from imbalanced data,” in Proceedings of the 24th International Conference on Machine Learning, 2007, pp. 935–942. 926] Jason Van Hulse, Taghi M Khoshgoftaar, Amri Napolitano, “experimental perspectives on Learning from unbalanced data” in Proceedings of the 24th International Conference on Machine Learning, 2007 pp. 935–942。
訳抜け防止モード: [26 ]Jason Van Hulse, Taghi M Khoshgoftaar, Amri Napolitano 第24回機械学習国際会議における「不均衡データからの学習に関する実験的視点」 2007 , pp . 935–942 .
0.77
[27] Bartosz Krawczyk, “Learning from imbalanced data: open challenges and future directions,” Progress in Artificial Intelligence, vol. [27] Bartosz Krawczyk, “不均衡なデータから学ぶ:オープンチャレンジと今後の方向性”, Progress in Artificial Intelligence, vol. 0.91
5, no. 4, pp. 221–232, 2016. 5, No. 4, pp. 221–232, 2016。 0.46
[28] Nitesh V Chawla, Kevin W Bowyer, Lawrence O Hall, and W Philip Kegelmeyer, “SMOTE: synthetic minority over-sampling technique,” Journal of Artificial Intelligence Research, vol. Nitesh V Chawla, Kevin W Bowyer, Lawrence O Hall, W Philip Kegelmeyer, “SMOTE: synthetic minority over-sampling technique”, Journal of Artificial Intelligence Research, vol.[28] Nitesh V Chawla, Kevin W Bowyer, Lawrence O Hall, and W Philip Kegelmeyer。
訳抜け防止モード: Nitesh V Chawla, Kevin W Bowyer, Lawrence O Hall ] そして、W Philip Kegelmeyer氏は、"SMOTE : 合成マイノリティオーバー - サンプリングテクニック"である。 Journal of Artificial Intelligence Research, vol. (英語)
0.73
16, pp. 321–357, 2002. 16, pp. 321-357, 2002。 0.87
[29] Jort F Gemmeke, Daniel PW Ellis, Dylan Freedman, Aren Jansen, Wade Lawrence, R Channing Moore, Manoj Plakal, and Marvin Ritter, “Audio set: An ontology and human-labeled dataset for audio events,” in 2017 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). Jort F Gemmeke, Daniel PW Ellis, Dylan Freedman, Aren Jansen, Wade Lawrence, R Channing Moore, Manoj Plakal, Marvin Ritter, “Audio set: An Ontology and human-labeled dataset for audio events” in 2017 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)。
訳抜け防止モード: Jort F Gemmeke, Daniel PW Ellis, Dylan Freedman Aren Jansen, Wade Lawrence, R Channing Moore, Manoj Plakal そしてMarvin Ritter氏は,“オーディオセット : オントロジーと人間-ラベル付きオーディオイベント用データセット”について語る。 2017年、IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) に参加。
0.84
IEEE, 2017, pp. 776–780. IEEE, 2017, pp. 776-780。 0.92
[30] Frederic Font, Gerard Roma, and Xavier Serra, “Freesound technical demo,” in Proceedings of the 21st ACM International Conference on Multimedia, 2013, pp. 411–412. [30]frederic font, gerard roma, xavier serra, “freesound technical demo” in the proceedings of the 21st acm international conference on multimedia, 2013 pp. 411–412. (英語)
訳抜け防止モード: 30]frederic font, gerard roma, xavier serra。 第21回acmマルチメディア国際会議紀要「freesound technical demo, 」 2013 , pp . 411–412 .
0.66
[31] Igor DS Miranda, Andreas H Diacon, and Thomas R Niesler, Igor DS Miranda, Andreas H Diacon, Thomas R Niesler 0.25
“A comparative study of features for acoustic cough detection using deep architectures,” in 2019 41st Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC). 第41回ieee engineering in medicine and biology society(embc)年次大会「深層建築を用いた音響カウ検出の特徴比較研究」
訳抜け防止モード: 深層建築を用いた音響コークス検出機能の比較研究」 第41回IEEE Engineering in Medicine国際会議に参加して and Biology Society (EMBC) の略。
0.66
IEEE, 2019, pp. 2601–2605. ieee, 2019, pp. 2601-2605。 0.68
[32] Vassil Panayotov, Guoguo Chen, Daniel Povey, and Sanjeev Khudanpur, “Librispeech: An ASR corpus based on public domain audio books,” in 2015 IEEE international conference on acoustics, speech and signal processing (ICASSP). 1532] Vassil Panayotov, Guoguo Chen, Daniel Povey, Sanjeev Khudanpur, “Librispeech: An ASR corpus based on public domain audio books” in 2015 IEEE International conference on acoustics, speech and signal processing (ICASSP)”. 2015年9月1日閲覧。
訳抜け防止モード: [32 ] Vassil Panayotov, Guoguo Chen, Daniel Povey, そしてSanjeev Khudanpur氏は,“Librispeech : an ASR corpus based on public domain audio books”と題する。 2015年、IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) に参加。
0.89
IEEE, 2015, pp. 5206–5210. IEEE, 2015, pp. 5206–5210。 0.91
[33] RG Bachu, S Kopparthi, B Adapa, [33]RG Bachu,S Kopparthi,B Adapa, 0.41
and Buket D Barkana, “Voiced/unvoiced decision for speech signals based on zero-crossing rate and energy,” in Advanced Techniques in Computing Sciences and Software Engineering, pp. 279–282. and buket d barkana, “voiced/unvoiced decision for speech signals based on zero-crossing rate and energy” in advanced techniques in computing sciences and software engineering, pp. 279–282. (英語)
訳抜け防止モード: そしてBuket D Barkana氏は,“ゼロ – 交差速度とエネルギーに基づく音声信号の音声/音声による決定”だ。 In Advanced Techniques in Computing Sciences and Software Engineering, pp. 279–282.
0.79
Springer, 2010. 2010年、スプリンガー。 0.61
[34] Madhurananda Pahar and Leslie S Smith, “Coding and Decoding Speech using a Biologically Inspired Coding System,” in 2020 IEEE Symposium Series on Computational Intelligence (SSCI). [34] madhurananda pahar, leslie s smith両氏は,2020 ieee symposium series on computational intelligence (ssci)で,“生物学的にインスパイアされたコーディングシステムを用いた音声のコーディングとデコード”と題した講演を行った。 0.66
IEEE, 2020, pp. 3025– 3032. IEEE, 2020, pp. 3025– 3032。 0.90
[35] Alex Krizhevsky, Ilya Sutskever, and Geoffrey E Hinton, “Imagenet classification with deep convolutional neural networks,” Communications of the ACM, vol. 35] alex krizhevsky, ilya sutskever, geoffrey e hinton, “imagenet classification with deep convolutional neural networks”(深層畳み込みニューラルネットワークによるイメージネット分類)。 0.69
60, no. 6, pp. 84–90, 2017. 60, No. 6, pp. 84-90, 2017。 0.44
[36] Sepp Hochreiter and J¨urgen Schmidhuber, “Long short-term memory,” [36]Sepp Hochreiter と J surgen Schmidhuber, “Long short-term memory” 0.46
Neural Computation, vol. ニューラル計算、vol。 0.53
9, no. 8, pp. 1735–1780, 1997. 9, No. 8, pp. 1735-1780, 1997。 0.92
[42] World Health Organization et al , “High priority target product profiles for new tuberculosis diagnostics: report of a consensus meeting, 28-29 april 2014, Geneva, Switzerland,” Tech. 世界保健機関(WHO)は「新しい結核診断のための高い優先順位の高い製品プロファイル」について、「2014年4月28-29日の合意会議の報告」と説明した。
訳抜け防止モード: 42 ] world health organization et al, “high priority target product profile for new tuberculosis diagnostics” : report of a consensus meeting 報告 2014年4月29日 - 2014年4月28日 - 2014年4月29日)スイス、ジュネーブ。
0.73
Rep. , World Health Organization, 2014. 代表。 2014年、世界保健機関。 0.54
[37] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun, 〔37〕開明彼、西安宗、宗清連、鑑真 0.37
“Deep residual learning for image recognition,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016, pp. 770– 778. ieee conference on computer vision and pattern recognition, 2016 pp. 770–778 で "deep residual learning for image recognition" と題された。
訳抜け防止モード: IEEEコンピュータビジョン会議における「画像認識のための深層学習」の成果 And Pattern Recognition, 2016, pp. 770 - 778。
0.79
[38] Shiqin Liu, “Leave-p-Out Cross-Validation Test for Uncertain VerhulstPearl Model With Imprecise Observations,” IEEE Access, vol. [38]shiqin liu, "不正確な観測を伴う不確定なverhulstpearlモデルに対するrevet-p-out cross-validation test with unrecise observations" ieee access, vol。
訳抜け防止モード: [38 ]シキン・リュー,「出発 - p - 交差 - 不正確なヴァーフルトパールモデルの不正確な観測による検証試験」 IEEE Access , vol。
0.68
7, pp. 131705–131709, 2019. 7, pp. 131705–131709, 2019。 0.94
[39] Anita R´acz, D´avid Bajusz, and K´aroly H´eberger, “Effect of dataset size and train/test split ratios in qsar/qspr multiclass classification,” Molecules, vol. [39] Anita R ́acz, D ́avid Bajusz, K ́aroly H ́eberger, “qsar/qsprマルチクラス分類におけるデータセットサイズと列車/テストのスプリット比の影響”, Molecules, vol。 0.72
26, no. 4, pp. 1111, 2021. 26 no. 4, pp. 1111, 2021。 0.75
[40] Damien Fourure, Muhammad Usama Javaid, Nicolas Posocco, and Simon Tihon, “Anomaly Detection: How to Artificially Increase Your F1Score with a Biased Evaluation Protocol,” in Joint European Conference on Machine Learning and Knowledge Discovery in Databases. Damien Fourure氏、Muhammad Usama Javaid氏、Nicolas Posocco氏、Simon Tihon氏は、Joint European Conference on Machine Learning and Knowledge Discovery in Databasesで、“Anomaly Detection: How to Artificially increase Your F1Score with a Biased Evaluation Protocol”と題している。 0.83
Springer, 2021, pp. 3–18. スプリンガー, 2021, pp. 3-18。 0.63
[41] Tom Fawcett, “An introduction to ROC analysis,” Pattern Recognition [41]Tom Fawcett, “A introduction to ROC analysis”, Pattern Recognition 0.39
Letters, vol. 27, no. 8, pp. 861–874, 2006. 手紙、Vol。 第27巻第8号, pp. 861-874, 2006。 0.48
                 ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。