論文の概要、ライセンス

# (参考訳) 畳み込みニューラルネットワークを用いたパーキンソント歩行解析のための時空間反応力解析 [全文訳有]

Spatiotemporal Ground Reaction Force Analysis using Convolutional Neural Networks to Analyze Parkinsonian Gait ( http://arxiv.org/abs/2102.00628v1 )

ライセンス: CC0 1.0
Musthaq Ahamed, P.D.S.H. Gunawardane, Nimali T. Medagedara(参考訳) パーキンソン病(英: Parkinson's disease, PD)は、高齢者の生活の質を大幅に低下させる不治の病気である。 PDは主に歩行パターンに影響を与え、歩行を正常から障害へと徐々に変化させる。 PDの早期診断は治療に重要であり,歩行パターン解析はPDの診断手法として用いられる。 本稿では,PDに関連する歩行パターンの変化を識別するための指標として,生時空間反応力(GRF)を同定した。 GRFの変化は、前処理、変換、認識、性能評価を通じて畳み込みニューラルネットワークを用いて識別される。 提案アルゴリズムは,pdの重症度を同定し,パーキンソン病の歩行と健康な歩行を区別することができる。 この技術は自動意思決定プロセスにおいて97%の精度を示している。

Parkinson's disease (PD) is a non-curable disease that commonly found among elders that greatly reduce their quality of life. PD primarily affects the gait pattern and slowly changes the walking gait from the normality to disability. The early diagnosing of PD is important for treatments and gait pattern analysis is used as a technique to diagnose PD. The present paper has identified the raw spatiotemporal ground reaction force (GRF) as a key parameter to identify the changes in human gait patterns associated with PD. The changes in GRF are identified using a convolutional neural network through pre-processing, conversion, recognition, and performance evaluation. The proposed algorithm is capable of identifying the severity of the PD and distinguishing the parkinsonian gait from the healthy gait. The technique has shown a 97% of accuracy in automatic decision-making process.
公開日: Mon, 1 Feb 2021 04:30:34 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Spatiotemporal Ground Reaction Force Analysis using 時空間的地盤反応力解析 0.79
Convolutional Neural Networks to Analyze Parkinsonian パーキンソン分析のための畳み込みニューラルネットワーク 0.67
Gait Musthaq Ahamed1 , P.D.S.H. 歩行 Musthaq Ahamed1, P.D.S.H。 0.42
Gunawardane2, Nimali T. Medagedara1 Gunawardane2, Nimali T. Medagedara1 0.78
1 The Open University of Sri Lanka, Nawala, Nugegoda. 1 スリランカのオープン大学、ナワラ大学、ヌゲゴダ大学。 0.64
2 The University of British Columnbia, Vancouver, Canada. 2 カナダ・バンクーバーのブリティッシュコロンビア大学(British Columnbia)。 0.76
musthaqahamed02@gmai l.com, hiroshan@mail.ubc.ca , tmmed@ou.ac.lk musthaqahamed02@gmai l.com, hiroshan@mail.ubc.ca , tmmed@ou.ac.lk 0.61
Abstract- Parkinson’s disease (PD) is a non-curable disease that commonly found among elders that greatly reduce their quality of life. 抽象パーキンソン病(PD)は、生活の質を大幅に低下させる高齢者の間で一般的に見られる非治癒性疾患です。 0.70
PD primarily affects the gait pattern and slowly changes the walking gait from the normality to disability. PDは主に歩行パターンに影響を与え、歩行を正常から障害へと徐々に変化させる。 0.71
The early diagnosing of PD is important for treatments and gait pattern analysis is used as a technique to diagnose PD. PDの早期診断は治療に重要であり,歩行パターン解析はPDの診断手法として用いられる。 0.88
The present paper has identified the raw spatiotemporal ground reaction force (GRF) as a key parameter to identify the changes in human gait patterns associated with PD. 本稿では,PDに関連する歩行パターンの変化を識別するための指標として,生時空間反応力(GRF)を同定した。 0.78
The changes in GRF are identified using a convolutional neural network through pre-processing, conversion, recognition, and performance evaluation. GRFの変化は、前処理、変換、認識、性能評価を通じて畳み込みニューラルネットワークを用いて識別される。 0.69
The proposed algorithm is capable of identifying the severity of the PD and distinguishing the parkinsonian gait from the healthy gait. 提案アルゴリズムは,pdの重症度を同定し,パーキンソン病の歩行と健康な歩行を区別することができる。 0.66
The technique has shown a 97% of accuracy in automatic decision-making process. この技術は自動意思決定プロセスにおいて97%の精度を示している。 0.75
Keywords: Convolution neural networks, Deep learning, Parkinsonian gait analysis, Parkinson’s disease キーワード: 畳み込みニューラルネットワーク、ディープラーニング、パーキンソン病の歩行分析。 0.56
1 Introduction Parkinson’s disease (PD) is a progressive neurodegenerative disorder that affects elderly population. はじめに パーキンソン病(PD)は、高齢者に影響を与える進行性神経変性疾患です。 0.69
The PD extirpate a small region in the brain that controls movement, balance, and posture. PDは、運動、バランス、姿勢を制御する脳内の小さな領域を抽出します。 0.76
In 2016, 6.1 million people are diagnosed with PD [1]. 2016年には6100万人がPD[1]と診断された。 0.69
The reports have shown a significant increase in reported Parkinson cases due to the aging of the world population. この報告は、世界人口の高齢化によるパーキンソン病の報告が著しく増加したことを示している。 0.74
In first five to ten years, most of the Parkinson subjects have not shown any significant symptoms to early diagnose this disease [2]. 最初の5年から10年の間、パーキンソン病患者のほとんどがこの疾患を早期に診断するための有意な症状を示さなかった [2]。 0.78
The available techniques to diagnose PD are relying on the experience of human technicians [3]. PDの診断に利用できる技術は、人間技術者の経験に依存している[3]。 0.81
Unified Parkinson Rating Scale (UPDRS) is the most common technique that is used to diagnose PD [4]. 統一パーキンソンレーティングスケール(UPDRS)は、PD[4]を診断するために使用される最も一般的な技術です。 0.79
The UPDRS consists of five categories to diagnose the disease severity stages including behavior, physical movement (motor) examination, mood, mentation, and day to day activities. UPDRSは、行動、運動(運動)検査、気分、発情、日々の活動を含む病気の重症度ステージを診断する5つのカテゴリで構成されています。 0.69
In one of the studies, PD is evaluated by the analysis of gait characteristics/patt erns for PD is found by Knutsson in 1972 [6]. 研究の1つでは、1972年にKnutssonによってPDの歩行特性/パターンの分析によりPDを評価する[6]。 0.68
This study has shown that the parkinsonian gait has a large variability compared with healthy gait. 本研究により,パーキンソン歩行は健常歩行と比較して大きな変動が認められた。 0.63
the subjects [5]. However, 被験者[5]。 しかし、 0.57
interviewing インタビュー 0.75
英語(論文から抽出)日本語訳スコア
Moreover, PD subjects have lower walking speed with a large gait cycle. さらに、PD被験者は歩行周期が大きいほど歩行速度が低い。 0.64
The parkinsonian gait’s stride length is shorter compare to the healthy gait. パーキンソンの歩行の長さは、健康的な歩行と比較して短いです。 0.58
This specificity in the gait pattern is caused by the freezing of the gait and it is globally identified as a vital feature of identifying the PD [7]. この歩行パターンの特異性は歩行の凍結によって引き起こされ、PD[7]を識別する重要な特徴として世界的に同定される。 0.67
Even though human gait movement and their posture are unique, in some cases these technicians have made mistakes in distinguishing parkinsonian gait [8]. 人間の歩行運動とその姿勢は独特だが, パーキンソン歩行を区別するミスを犯した技術者もいる[8]。 0.60
Therefore, gait analysis of subjects with PD requires a highly sophisticated approach to get reliable results. したがって、PD患者の歩行分析には、信頼性の高い結果を得るために高度に洗練されたアプローチが必要である。 0.48
Deep learning approaches are used to enhance the reliability in gait analysis [9]. 深い学習アプローチは歩行分析の信頼性を高めるために用いられる[9]。 0.83
In recent years, artificial neural networks and deep learning has been advanced to process and analyze complex data sets [10], [11]. 近年、人工ニューラルネットワークとディープラーニングは、複雑なデータセット [10]、[11]を処理および分析するために進歩しています。 0.76
The development of computer technologies has introduced new approaches for data processing, analyzing, and data classifying in healthcare applications [12]. 医療アプリケーションにおけるデータ処理,分析,データ分類のための新たなアプローチが,コンピュータ技術開発に導入されている[12]。 0.81
The deep learning is used to automate the development of models that is used to analyze complex ground reaction force (GRF) data to deliver faster and detailed results in gait related applications [13]. 深層学習は、複雑な地盤反応力(GRF)データを解析し、歩行関連アプリケーションにおいてより高速かつ詳細な結果を提供するために使用されるモデルの開発を自動化するために使用される[13]。 0.79
These approaches are modifiable to effectively identify the gait abnormalities using spatiotemporal gait parameters. これらの手法は時空間歩行パラメータを用いて歩行異常を効果的に同定する。 0.53
The present paper explores the performance of the deep neural network to classify parkinsonian and normal gait patterns. 本稿では,パーキンソンおよび正常歩行パターンを分類するディープニューラルネットワークの性能について検討する。 0.71
1.1 Literature review The sensitivity of the GRF data is crucial to classification of parkinsonian gait from normal gait. 1.文献レビュー GRFデータの感度は、通常の歩行からのパーキンソン歩行の分類に重要である。 0.72
Pressure sensing is used to measure GRF generated in the foot during walking. 圧力センサは歩行中に足で発生するGRFを測定するために用いられる。 0.74
A similar technique has been used to classify gait patterns among the children with Autism using ANN and support vector machine [14]. ANNとサポートベクターマシン[14]を用いて自閉症児の歩行パターンの分類に同様の手法が用いられている。 0.76
This paper has reported of technique to classify Autism gaits with a 95% of accuracy. 本稿では,自閉症の歩行を95%の精度で分類する手法を報告した。 0.63
This result has validated the effective use of machine learning approaches to classify pathological gait patterns. この結果は、病的歩行パターンを分類するための機械学習アプローチの効果的な利用を検証する。
訳抜け防止モード: この結果は、機械学習アプローチの有効利用を検証する 病的歩行パターンを分類する。
0.83
In [15], deep learning has been used with GRF data for wide area floor sensing. 15]では,広帯域フロアセンシングのためのGRFデータを用いて深層学習を行っている。 0.76
This study has explored the techniques of categorizing gait patterns by fusing raw spatiotemporal GRF. 本研究では, 生時空間GRFを融合させ, 歩行パターンを分類する手法を検討した。 0.62
The paper has explored the use of CNN with long short-term memory approaches to study parkinsonian gaits. 本論文は,パーキンソン歩行研究における長期記憶アプローチを用いたCNNの使用について検討した。 0.60
This technique has shown a 96% precision of identifying these gait patterns. この手法は、これらの歩行パターンを識別する96%の精度を示している。 0.61
The technique introduced in [16] has used a computer vision-based technique to identify parkinsonian gait and a 95.49% accuracy has been reported. 16]で導入されたテクニックは、コンピュータビジョンに基づく手法を用いてパーキンソン歩行を特定し、95.49%の精度が報告されている。 0.61
This study has been compared the normal gaits with parkinsonian gaits and has been able to successfully identify several progressive stages. 本研究は, 正常歩行とパーキンソン歩行を比較し, いくつかの進行段階の同定に成功している。 0.69
Therefore, one of the primary goals of the present paper is to classify the parkinsonian gait based on the disease severity. したがって、本論文の主な目的の1つは、病気の重症度に基づいてパーキンソン歩行を分類することである。 0.73
Several previous attempts have used machine learning, vision-based systems, deep learning models, and statistical methods to classify parkinsonian gaits [14], [15], [16], [17], [18]. これまでのいくつかの試みでは、パーキンソン歩行[14]、[15]、[16]、[17]、[18]を分類するために、機械学習、視覚ベースシステム、ディープラーニングモデル、統計的手法を使用してきた。 0.69
However, the classification of severity stages of parkinsonian gait is highly important for the treatments and have not been covered in many of these studies. しかし、パーキンソン歩行の重症度ステージの分類は治療にとって非常に重要であり、これらの研究の多くはカバーされていない。
訳抜け防止モード: しかし,パーキンソン病の重症度段階の分類は治療に非常に重要である。 これらの研究は 多くは取り上げられていません
0.76
Therefore, this paper has focused on developing a cost effective and fast data processing application based on CNN to detect parkinsonian gaits to be apply for future medical applications. そこで本論文では,今後の医療応用に応用すべきパーキンソンの歩留まりを検出するために,CNNに基づく費用対効果の高い高速データ処理アプリケーションの開発に焦点を当てた。 0.68
This paper is structured as follows. 本論文は次のように構成されている。 0.50
Section 2 summarizes the database that is used for this study. 第2節では,本研究に用いるデータベースを要約する。 0.76
Section 3 explains the methodology; data preprocessing, data matrix form development, image conversion, data preparation for CNN model, pattern recognition model development, and performance evaluation. 第3節では、データプリプロセッシング、データマトリックスフォーム開発、画像変換、cnnモデルのデータ準備、パターン認識モデル開発、パフォーマンス評価という方法論を説明します。 0.79
Section 4 presents the 第4節は 0.64
英語(論文から抽出)日本語訳スコア
CNN model performance and discusses the results and section 5 concludes the final outcome and presents recommendations for the future work. CNNモデルのパフォーマンスと結果について議論し、セクション5は最終的な結果を締めくくり、将来の作業のための推奨事項を提示します。 0.57
2 Data Description The data set used in this study was obtained from the open-source database PhysioNet [19]. 2 データ記述 本研究で使用したデータセットは,オープンソースのデータベースphysionet [19] から得られた。 0.77
The data included 93 idiopathic PD subjects and 73 healthy subjects with an average age of 66. データは, 特発性PD群93名, 健常者73名, 平均年齢66。 0.61
This data consists PD disease severity measurement Hoehn and Yahr score for each subject. このデータは、各被験者に対するpd疾患重症度測定 hoehn と yahr スコアからなる。 0.65
There were 10 subjects with the Hoehn and Yahr PD stage 3, 27 subjects with a Hoehn and Yahr PD stage 2.5, and 56 subjects with a Hoehn and Yahr PD stage 2. Hoehn and Yahr PDステージ3の被験者は10名,Hoehn and Yahr PDステージ2.5の被験者は27名,Hoehn and Yahr PDステージ2の被験者は56名であった。 0.82
The dataset contains vertical GRF for both PD and healthy subjects with approximately 2 minutes of walking. データセットは、PDと健康な被験者の両方のための垂直GRFを含み、約2分間歩きます。 0.65
The GRF was gathered using three separate measures, which are known as dual tasking (Ga), rhythmic auditory stimulation (Ju), and treadmill walking (Si) which is shown in Table 1. GRFは3つの異なる尺度を用いて収集され,2つの課題(Ga),リズム音刺激(Ju),トレッドミル歩行(Si)が表1に示されている。 0.65
The dual tasking is used to evaluate the limitations of the attentional capability of the subjects [20]. 二重タスクは被験者[20]の注意力の限界を評価するために使用される。 0.72
The rhythmic auditory stimulation improves the gait and gait-related movements [21]. リズミカルな聴覚刺激は歩行と歩行に関連する動きを改善します[21]。 0.64
Similarly, the treadmill walking improves the gait and gait-mobility [22]. 同様に、トレッドミルウォーキングは歩行と歩行運動を改善します[22]。 0.68
Table 1. Data description of the number of participants. 表1。 参加者数に関するデータ記述。 0.71
Group Ga Ju グループ 雅(が) 十 0.50
Si Number of PD subjects Number of healthy subjects Si pd被検者数 健常者数 0.61
Subjects 29 29 35 主題 29 29 35 0.76
18 26 29 The data acquisition for every subject is carried out using eight flex sensors under each foot to capture the force applied to it during walking. 18 26 29 各被験者のデータ取得は、足の下の8つのフレキシブルセンサーを用いて行われ、歩行中に作用する力をキャプチャする。
訳抜け防止モード: 18 26 29 各科目毎のデータ取得を行う。 足の下の8つのフレキシブルセンサーを使って 歩行中に加わった力を捉えます
0.83
Each sensor produced 100 samples per second and the readings are recorded in a raw matrix. 各センサは毎秒100個のサンプルを生成し、読み出しを生のマトリクスに記録する。 0.78
After the data acquisition, all eight-sensor data from each foot is added and recorded separately into the matrix with their respective subjects [19]. データ取得後、各足からのすべての8センサーデータは、それぞれの被験者とマトリックスに個別に追加および記録されます[19]。 0.82
3 Methodology This section describes the data preprocessing, image conversion, development of the CNN and performance evaluation techniques. 3 方法論 本稿では,データ前処理,画像変換,CNNの開発,性能評価技術について述べる。 0.78
3.1 Data preprocessing 3.1 データ前処理 0.64
The raw data files were converted from text to CSV for each sample and saved separately prior to the preprocessing. 生のデータファイルはテキストからサンプル毎にCSVに変換され、前処理前に別々に保存される。 0.77
Each sample had 19 columns and data were 各サンプルには19のコラムがあり 0.74
英語(論文から抽出)日本語訳スコア
recorded in a slightly different frame rate (some data had 12119 and others had 1000 frames per sample). わずかに異なるフレームレートで記録される(あるデータは12119、別のデータはサンプルあたり1000フレーム)。 0.86
The columns included were; time stamps, GRF data from the left foot of the each subject (eight sensor measurements), GRF data form the right foot of the each subject (eight sensor measurements), and the two total GRF values for each foot. カラムには、タイムスタンプ、各被験者の左足からのGRFデータ(8つのセンサー測定)、各被験者の右足を形成するGRFデータ(8つのセンサー測定)、および各足の2つの合計GRF値が含まれていました。 0.65
The frame rate mismatch was handled as in [23], [24]. フレームレートのミスマッチは[23],[24]のように処理された。 0.76
The final preprocessed data set after omitting the unnecessary data for CNN model, each subject data contained 18 columns and 500 frames. CNNモデルの不要なデータを省略した後の最終的な前処理データセットは、各対象データに18列と500フレームが含まれていた。 0.65
A single gait cycle including both heel strike and toe-off takes one second (100 frames), therefore, each subject data contained 5 gait cycles (i.e., GRF of each subject for 5 gait cycles). ヒールストライクとトウオフの両方を含む単一の歩行サイクルは1秒(100フレーム)かかるため、各被験者データは5つの歩行サイクル(すなわち、各被験者のGRFは5つの歩行サイクル)を含む。 0.70
These samples were converted into a 500x18 matrices. これらのサンプルは500x18の行列に変換された。 0.56
The number of samples for each data class is as shown in the Table 2. 各データクラスのサンプル数は、表2に示す通りです。 0.70
The classified data for PD stage 2 and PD stage 3 had the maximum and the minimum number of samples respectively [25]. PDステージ2およびPDステージ3の分類データは、それぞれ最大サンプル数と最小サンプル数を持っていた[25]。 0.83
Table 2. Number of samples used for each classification 表2。 各分類に使用されるサンプル数 0.81
Data class Number of samples データクラス サンプル数 0.68
Healthy subjects PD stage 2 subjects 健康問題 PDステージ2の課題 0.72
PD stage 2.5 subjects PD stage 3 subjects PDステージ2.5 PDステージ3。 0.77
3.1 Data Normalization 3.1 データ正規化 0.61
2001 2084 1633 2001 2084 1633 0.85
541 The data normalization is critical to deep learning models to map their inputs with the outputs. 541 データ正規化は、入力を出力でマップする深層学習モデルにとって重要である。 0.82
The differences in the scales must be omitted and data should be comparable with each other to corelate and identify their characteristics. スケールの違いは省略しなければならず、データはそれぞれの特徴をコア化し識別するために互いに比較されるべきである。 0.67
This data set is normalized between 0 to 1 [26]. このデータセットは 0 から 1 [26] の間で正規化される。 0.77
Each 500 18 matrix has considered independently in the data normalization process. 各50018行列は、データ正規化プロセスにおいて独立に検討されている。 0.61
After the normalization, the matrices are represented as an image with their respective color shades. 正規化後、行列はそれぞれのカラーシェードを持つ画像として表現される。 0.73
The created spectrogram is contributed each with a height of 500 pixels and a width 18 pixels, totaling 9000 features. 作成したスペクトログラムは、それぞれ高さ500ピクセルと幅18ピクセルで、合計9000個の特徴がある。 0.72
The reconstructed image samples are shown in Fig. 復元した画像サンプルを図に示します。 0.74
1. The spectrograms represent the GRF of the data set; healthy subjects, PD stage 2 subjects, PD stage 2.5 subjects, and PD stage 3 subjects respectively from left to right. 1. スペクトログラムはデータセットのGRFを表し、健康な被験者、PDステージ2の被験者、PDステージ2.5の被験者、PDステージ3の被験者をそれぞれ左から右に示します。
訳抜け防止モード: 1. スペクトログラムはデータセットのGRFを表します。 PDステージ2の被験者、PDステージ2.5の被験者、PDステージ3の被験者はそれぞれ左から右へ。
0.78
Similarly, 6259 images are created to represent all the data. 同様に、6259画像はすべてのデータを表すために作成されます。 0.68
The last two sections (columns) of the image are the total GRF of left and right foot respectively. 画像の最後の2つのセクション(カラム)は、それぞれ左足と右足の合計GRFである。 0.73
Comparing to the samples of the healthy subjects, the PD subjects have shown a high total GRF due to their freezing of the gait during the walking. 健康な被験者のサンプルと比較して、PDの被験者は歩行中の歩行の凍結のために高い総GRFを示しました。 0.64
英語(論文から抽出)日本語訳スコア
Fig. 1. The normalized image samples. フィギュア。 1. 正常化画像サンプル。 0.66
The yellow and purple colors represent the maximum and minimum GRF 黄色と紫の色は、最大と最小のGRFを表す 0.82
3.2 Pattern Recognition Model Development 3.2 パターン認識モデルの開発 0.74
The data set is unstructured and labelled, therefore, supervised learning is suitable to be used in this application. データセットは非構造化されラベル付けされているため、教師付き学習はこのアプリケーションでの使用に適しています。 0.64
Supervisory learning maps the data sets with inputs and outputs. 監視学習は、入力と出力でデータセットをマップします。 0.66
The primary goal of this algorithm is to seek the relation between input images and GRF group labels. このアルゴリズムの主な目的は、入力画像とgrfグループラベルの関係を求めることである。 0.79
However, there is no quantifiable parametric variation between the gait patterns of PD and healthy subjects. しかし、PDの歩行パターンと健常者の間には定量化可能なパラメトリック変動は存在しない。 0.64
Therefore, to identify the relation between GRF and PD, this proposed technique in this paper is used. そこで本論文では, GRFとPDの関係を明らかにするために, 本手法を用いた。 0.77
Moreover, the developed CNN model can identify the PD stages concerning their Hoehn Yahr PD progress scales. さらに, 開発したcnnモデルは, ホーン・ヤールのpd進歩尺度に関するpdステージを同定できる。 0.62
The CNN model is used to learn the events and the phase changes during the gait cycles [27]. CNNモデルは、歩行サイクル[27]中のイベントと位相変化を学習するために使用される。 0.78
3.3 Convolution Neural Network (CNN) 3.3 Convolution Neural Network (CNN) 0.94
CNN’s capability of automatically grasping sophisticated patterns from large datasets is used for this application. このアプリケーションには、大規模なデータセットから高度なパターンを自動的に把握するCNNの能力が使用されている。 0.56
In general, CNN consists of a convolution layer and a pooling layer [28], [29]. 一般的に、CNNは畳み込み層とプール層[28],[29]から構成される。 0.61
The images are initially fed into convolution layer which performs the convolution operation. 画像は、まず畳み込み動作を実行する畳み込み層に供給される。 0.63
The input convolution layer is set to 500 18 1 to fit with image size, including a single-color channel. 入力畳み込み層は、単色チャネルを含む画像サイズに適合するように500 18 1に設定されている。 0.80
This is a linear operation that multiplies set of weights with the input image’s pixel values. これは、入力画像のピクセル値と重みのセットを乗算する線形演算である。 0.74
The multiplication is achieved between an input pixel data array and two-dimensional weight array that is known as a filter [30]. この乗算は、入力画素データアレイとフィルタ[30]として知られる2次元重み配列との間で行われる。 0.84
The filters are used to determine the フィルタは、その決定に使用される 0.87
英語(論文から抽出)日本語訳スコア
features that associate with each image. 各画像に関連付けられる特徴。 0.80
The convolution operation used in this algorithm is for a two- dimensional image and shown in the Equation 1 [31]. このアルゴリズムで使用される畳み込み演算は二次元画像のためのもので、方程式1[31]で示される。 0.80
(1) The parameters and variables are; two-dimensional image = , two-dimensional , the indexes of rows and columns of the result matrix are marked with and (1) パラメータと変数は以下のようになる: 2次元イメージ = , 2次元 , 結果行列の行と列のインデックスは、andでマークされる。 0.82
filter = respectively. filter = それぞれ。 0.77
After applying the filter over a selected set of pixels, each value of the filter is multiplied with their corresponding value from the input image. 選択された画素群にフィルタを適用すると、各フィルタの値が入力画像から対応する値に乗算される。 0.81
Then all the multiplied pixels are summed up and placed in the output feature map. その後、すべての倍増されたピクセルが合計され、出力機能マップに配置されます。 0.66
The features of the images such that edges and corners are identified using this convolution layer. エッジやコーナーなどの画像の特徴は、この畳み込み層を用いて識別される。 0.74
Specifically, the generated output feature maps are maintained same size of the input data matrix by adding a padding value as a one into the convolution operation. 具体的には、畳み込み操作にパディング値を1つ追加することにより、生成された出力特徴マップを入力データ行列と同じ大きさに維持する。 0.78
And also, the rectifier linear function is applied to increase the non-linearity in feature map because the images have nonlinear features such as tractions between pixels, boarders, and colors. また, 画像が画素, ボーダ, 色間のトラクションなどの非線形特徴を有するため, 特徴写像の非線形性を高めるために整形器線形関数を適用した。 0.80
The model is constructed using four convolution layers with three hidden layers. モデルは3つの隠れた層を持つ4つの畳み込み層によって構成される。 0.62
The filter selection for each layer is given in Table 3. 各層に対するフィルタ選択は、表3で与えられる。 0.80
The filters are chosen concerning the maximum accuracy with the best performance characteristics [32]. フィルタは、最高の性能特性を有する最大精度について選択される[32]。 0.88
Table 3. Number of filters used for each layer 表3。 各層に使用されるフィルタの数 0.83
Layer description Number of filters 層の説明 フィルタの数 0.79
Convolution layer 1st hidden convolution layer 畳み込み層 第1 隠れ畳み込み層 0.71
2nd hidden convolution layer 第2 隠れ畳み込み層 0.83
3rd hidden convolution layer 128 第3隠れ畳み込み層 128 0.84
256 512 1024 256 512 1024 0.85
The filters are selected in incremental order with the size of 3 3 to keep the feature space wide and shallow from the initial stages of the network while making it narrow and deep towards the end of the model. フィルタは、3 3のサイズで段階的に選択され、特徴空間をネットワークの初期段階から広く、浅い状態に保ちながら、モデルの終わりに向かって狭く深いものにします。 0.73
Every convolution layer is followed by pooling layer that reduces the spatial size of the representation [33]. 各畳み込み層は、表現[33]の空間サイズを小さくするプーリング層に追従される。 0.74
As a result, the number of parameters and computation time in the network are minimized. これにより、ネットワーク内のパラメータ数と計算時間を最小限に抑えることができる。 0.84
The pooling operation is carried out by sliding a two-dimensional filter over each channel of the feature map and then the features are summarized within the region that covered by the filter. プーリング操作は、特徴マップの各チャンネルに2次元フィルタをスライドさせることで実行され、その特徴はフィルタで覆われた領域内で要約される。 0.86
After, pooling operation, the dimensions of the feature map プーリング操作の後 特徴マップの寸法は 0.56
are obtained using the Equation 2 [34]. 式 2 [34] を用いて得られる。 0.77
(2) (2) 0.85
Where, y is the dimension of output after the pooling operation, feature map, feature map, ここでyは、プーリング操作、特徴マップ、特徴マップの後の出力の次元である。 0.66
is the size of the filter, is the stride length, and フィルターのサイズ、ストライドの長さ、そして 0.51
is the width of the feature map, 特徴マップの幅です。 0.51
is the height of is the number of channels in the 高さはチャンネルの数です。 0.52
is the padding. パッドです 0.26
英語(論文から抽出)日本語訳スコア
In this model, max pooling is selected by the pooling operation that selects the maximum element from the region of the feature map covered by the filter with the size of a 2 2 matrices [35]. このモデルでは、フィルタがカバーする特徴マップの領域から最大要素を2つの2つの行列のサイズで選択するプーリング操作によって最大プーリングが選択されます[35]。 0.81
The padding is selected to be zero by less considering the edges of the images. 画像のエッジを考慮せずに、パディングをゼロに選択する。 0.58
Similarly, to reduce the timed consumed for operation and complexity, the stride length is selected as 2. 同様に、操作および複雑性に費やした時間を削減するために、ストライド長を2とする。 0.71
The convolution matrix of ith output after the max-pooling is a feature map containing the most outstanding features of the previous feature map. max-pooling の後の ith 出力の畳み込み行列は、以前の特徴マップの最も顕著な特徴を含む特徴マップです。 0.85
This is shown in Table 4. For instance, after the 1st pooling operation, the generated output feature map size is determined using Equation 2. 表4に示します。 例えば、第1のプーリング操作の後、生成した出力特徴マップサイズを等式2で決定する。 0.70
The height and width of feature map after the 1st convolution operation is 500×18. 第1畳み込み操作後の特徴地図の高さと幅は500×18である。 0.71
The other parameters are selected to be =0, =2, =2, and =1 (single color channel). 他のパラメータは =0, =2, =2, =1 (シングルカラーチャネル) に選択される。 0.93
By substituting the parameters into Equation 2, the generated output shape turned out to be 250×9×1. パラメータを式2に置換することで、生成された出力形状は250×9×1となった。 0.71
Similarly, each output feature map is produced using the same technique. 同様に、各出力特徴マップは、同じ技法で作成される。 0.79
Table 4. The output image shape for each pooling operation. 表4。 プール操作毎の出力画像形状。 0.68
Layer description Output shape 1st pooling layer 層の説明 出力形状 第1プール層 0.81
2nd pooling layer 3rd pooling layer 第2プール層 第3プール層 0.82
250 × 9 125 × 4 250 × 9 125 × 4 0.85
62 × 2 4th pooling layer 62 × 2 第4回プール層 0.76
31 × 1 In general, overfitting provides too much information to CNN, specifically, by the information that is irrelevant to the model. 31 × 1 一般に、オーバーフィッティングは、モデルに関係のない情報によって、CNNに過剰な情報を提供する。 0.78
Therefore, overfitting can be avoided by constructing a pooled feature map in the model [36]. したがって、モデル[36]にプールされた機能マップを構築することにより、オーバーフィットを回避することができる。 0.60
After the pooled featured map is obtained, the fatten function is used to transform the entire pooled feature map matrix into a single column that could be fed into the neural network for classification. プール化されたフィーチャーマップが得られた後、fatten関数を使用してプール化されたフィーチャーマップマトリックス全体を単一のカラムに変換し、分類のためにニューラルネットワークに供給することができる。 0.72
Flattening has resulted a single long feature vector that is used for the neural network. フラット化は、ニューラルネットワークに使用される1つの長い特徴ベクトルを生み出した。 0.76
After flattening, the flattened feature map has been passed through another neural network. フラット化後、フラット化特徴マップは別のニューラルネットワークを通過した。 0.71
This step consists of an input layer, a fully connected layer, and an output layer. このステップは、入力層、完全に接続された層、および出力層から構成される。 0.78
The fully connected layer is same as the hidden layer in ANNs. 完全に接続された層はANNsの隠された層と同じです。 0.71
However, in this algorithm, it’s fully connected. しかし、このアルゴリズムでは、完全に接続されている。 0.77
The output layer is the predicted class of each gait pattern [37], [48]. 出力層は、各歩行パターン[37],[48]の予測クラスである。 0.62
The identified pooled features are passed through the network and the error of prediction is calculated. 特定されたプールされた特徴がネットワークを通過し、予測エラーが計算される。 0.73
The fully connected layer is developed using 512 neurons that consist of rectified linear unit (ReLU) activation function. 完全連結層は、整列線形単位(ReLU)活性化関数からなる512ニューロンを用いて開発されている。 0.76
Similarly, the output layer contains 4 neurons with softmax activation function that represents each output of the PD case’s gait pattern. 同様に、出力層は、PDケースの歩行パターンの各出力を表すソフトマックス活性化機能を持つ4つのニューロンを含む。 0.81
The softmax activation function is selected for the output layer to represent the probability of each class that brought down to numbers between zero and one. 出力層に対してsoftmaxアクティベーション関数が選択され、0と1の間の数値に低下した各クラスの確率を表す。 0.85
The model loss is calculated using categorical cross-entropy that could handle multi-class classification [39], [40]. モデル損失は、多クラス分類 [39], [40] を扱えるカテゴリー横断エントロピーを用いて計算される。 0.84
The developed CNN model is optimized using an adaptive learning rate (Adam) optimization algorithm that is used to obtain individual learning rates of each parameter. 開発したCNNモデルは、各パラメータの個別学習率を得るために使用される適応学習率(Adam)最適化アルゴリズムを用いて最適化される。 0.83
The 80-percent of the dataset is used to train the model and the remaining is used to test and validate the model. データセットの80%はモデルのトレーニングに使用され、残りはモデルのテストと検証に使用されます。 0.76
The callback, early stopping functions are used to stop training when it reaches a certain accuracy with loss score by adjusting the コールバック、早期停止機能は、調整によって損失スコアが一定の精度に達するとトレーニングを停止するために使用される。 0.70
英語(論文から抽出)日本語訳スコア
learning rates over time and to prevent the overfitting during the training stage. 時間の経過とともに学習率とトレーニングの段階でオーバーフィットを防ぐために。 0.67
Fig. 2 shows the proposed 2D-CNN architecture with the descriptions of each layer. フィギュア。 2は、提案された2D-CNNアーキテクチャを各レイヤの説明とともに示す。 0.47
The outcome of the model is determined by using human gait pattern analysis that specifies for each case [41]. モデルの結果は、各ケース[41]を指定する人間の歩行パターン解析を用いて決定される。 0.87
CNN model is developed using open-source libraries that are found in SciKit learn, TensorFlow, and Keras (TensorFlow backend) [42]. CNNモデルは、SciKit Learn、TensorFlow、Keras(TensorFlowバックエンド)にあるオープンソースのライブラリを使用して開発されています[42]。
訳抜け防止モード: CNNモデルは、SciKitで学ぶオープンソースライブラリを使って開発されている。 TensorFlowとKeras(TensorFlowバックエンド) [42]。
0.86
Fig. 2. Illustration of the proposed CNN architecture. フィギュア。 2. 提案されたCNNアーキテクチャのイラストレーション。 0.65
3.4 Model Performance Evaluation 3.4 モデル性能評価 0.81
The performance of the classification algorithm is determined by the confusion matrix shown in Fig. 分類アルゴリズムの性能は、図に示す混乱行列によって決定される。 0.82
3. The gait pattern recognition of each subject is analyzed through the confusion matrix [43], [44]. 3. 各被験者の歩行パターン認識は、混乱行列[43],[44]を介して解析される。
訳抜け防止モード: 3. 各被験者の歩行パターン認識は、混乱行列[43]を介して解析される。 [ 44 ] .
0.87
Fig. 3. Confusion matrix. フィギュア。 3. 融合マトリックス。 0.64
Various performance measures are used to examine the model performance in the confusion matrix. 混乱行列のモデル性能を調べるために,様々な性能指標が用いられる。 0.80
Mainly, model accuracy, recall, precision, and F-measure parameters are obtained to evaluate the performance. 主に、モデル精度、リコール、精度、およびF測定パラメータを取得し、性能を評価します。 0.70
英語(論文から抽出)日本語訳スコア
The model accuracy is determined by Equation 3. モデル精度は式3で決定される。 0.85
Where true positive = negative = 真正 = 負 = である。 0.69
and false negative = そしてfalse negative = 0.77
, false positive = , false positive = 0.85
. , true (3) (5) . 本当だ (3) (5) 0.80
The number of true positive value is determined using the recall function shown in Equation 4. 式4に示すリコール関数を用いて真の正の値の数を決定する。 0.80
(4) F-measure is used to measure the model performance concerning precision and recall. (4) F測定は、精度とリコールに関するモデル性能を測定するために用いられる。 0.77
Equation 5 shows the F-measure calculation formula [48]. 式 5 は f-測定式 [48] を示す。 0.79
(5) 4 Results The results showed the prediction capability of the model as mentioned in the previous section. (5) 4結果 その結果, 前節で述べたようなモデルの予測能力を示した。 0.79
Moreover, model training and testing characteristics were visualized using graphs. さらに,モデルトレーニングとテスト特性をグラフを用いて可視化した。 0.78
The progress of the training, testing accuracy, and losses were plotted concerning 12 epochs as shown in Fig. 訓練、試験精度、損失の経過は、図に示すように12エポックについてプロットされた。 0.70
4 and Fig. 5 respectively. 4およびFig。 5であった。 0.61
The model confusion matrix shows the comparison between prediction class and actual class resulted as in Fig. モデル混乱行列は、図で得られた予測クラスと実際のクラスの比較を示しています。 0.76
6. The overall model performance scores are summarized as shown in Table 5, including each PD stage analysis. 6. 全体のモデルパフォーマンススコアは、各PDステージ分析を含む表5に示すように要約されます。 0.84
英語(論文から抽出)日本語訳スコア
Fig. 4. Model training accuracy and validation accuracy plot. フィギュア。 4. モデルトレーニング精度と検証精度プロット。 0.66
Fig. 5. Model training loss and validation loss. フィギュア。 5. モデルのトレーニング損失と検証損失。 0.68
英語(論文から抽出)日本語訳スコア
Fig. 6. CNN model confusion matrix. フィギュア。 6. CNNモデル混乱マトリックス。 0.68
Table 5. Model performance. テーブル5。 モデルパフォーマンス。 0.77
Case Precision Recall F1-measure ケース 精度 回想 F1対策 0.58
Overall (%) 97 accuracy (%) 全体 (%) 97 正確さ (%) 0.83
97 97 (%) (%) 97 97 (%) (%) 0.85
97 97 97 97 97 97 97 97 0.85
97 98 96 97 97 98 96 97 0.85
96 95 98 93 96 95 98 93 0.85
99 PD stage 3 99 PDステージ3 0.83
PD stage 2 PD stage 2.5 PDステージ2 PDステージ2.5 0.78
Healthy person The results have shown that the proposed methods are capable of accurately predict the parkinsonian gait and its stages. 健康な人 その結果,提案手法はパーキンソン歩行とそのステージを正確に予測できることがわかった。 0.72
Table 5 shows CNN algorithm performed with a maximum peak accuracy value of 97%. 表5は、最大ピーク精度値97%で実行されたCNNアルゴリズムを示しています。 0.69
This technique improved the accuracy by 1% in comparison to the technique introduced in [15]. この手法は[15]で導入された手法と比較して精度を1%向上させた。 0.69
Although when compares to [15] the accuracy had increased by a 1%. 15]と比較すると、精度は1%向上しました。 0.61
The parameters; precision, recall, and F1measure values were recorded over 93% accuracy showing the model reliability. パラメータ、精度、リコール、F1測定値は、モデルの信頼性を示す93%の精度で記録された。 0.71
This work has provided evidence that having a higher number of filters can enhance the model performance characteristics in this application. この研究は、より多くのフィルタを持つことによって、このアプリケーションのモデル性能特性が向上することを示す。 0.77
Fig. 4 shows the progress of the training and validation accuracy has reached 97% and confirmed that accuracy of the model. フィギュア。 4は、トレーニングと検証の精度の進捗が97%に達し、モデルの精度が確認されたことを示しています。
訳抜け防止モード: フィギュア。 4) 訓練の進捗と検証精度が 97 % に達していることを示す。 モデルの精度を確認しました
0.64
Similarly, the model training and validation losses were analyzed as shown in Fig. 同様に、モデルトレーニングと検証損失を図に示すように分析した。 0.80
5, achieving less than 0.2 obtaining a good fit. 5. 0.2未満の適合性が得られる。 0.78
Moreover, the PD stage 2 showed the lowest precision value by scoring 93%. さらに,PDステージ2では,93%のスコアで最低精度を示した。 0.79
A key characteristic shown in results is the higher value in the super diagonal matrix. 結果に示される重要な特徴は、超対角行列のより高い値である。 0.80
This is an indication of high accuracy of これは高い精度を示すものです 0.74
英語(論文から抽出)日本語訳スコア
prediction in the CNN model. CNNモデルの予測。 0.64
The current systems require only few apparatuses with respect to the vision-bases system in [16]. 現在のシステムでは [16] のビジョンベースシステムに対して, ごくわずかな装置しか必要としない。 0.71
5 Conclusion GRF data is a crucial parameter in human gait analysis to identify PD. 5 結論 GRFデータは、PDを識別するための人間の歩行分析の重要なパラメータです。 0.71
This paper had presented a CNN based approach to identify and classify parkinsonian gait and stages of PD using GRF-based data recorded in human trials. 本稿では,人体実験で記録されたGRFデータを用いて,パーキンソン歩行とPDの段階を識別・分類するためのCNNベースのアプローチを提案する。 0.62
The proposed technique had shown a 97% accuracy of prediction and the lowest precision recorded for classifying different stages of PD was 93%. 提案手法では97%の予測精度を示し, PDの異なる段階を分類するための最も低い精度は93%であった。 0.87
Therefore, this work suggests CNN as a best approach to identify PD and their stages. したがって、この研究はCNNをPDとその段階を特定するための最良のアプローチとして示唆している。 0.54
The future work of this research would be helped for investigate other gait parameters of parkinsonian gait (e.g., joint velocities/accelerat ion, walking speed, etc.) この研究の今後の研究は、パーキンソン歩行の他の歩行パラメータ(例えば、関節速度/加速、歩行速度など)を調べるのに役立ちます。 0.71
for early diagnosing of PD. PDの早期診断のためです 0.81
References 1. A. Tsanas and S. Arora, “Large-scale Clustering of People Diagnosed with Parkinson’s Disease using Acoustic Analysis of Sustained Vowels: Findings in the Parkinson’s Voice Initiative Study,” Proceedings of the 13th International Joint Conference on Biomedical Engineering Systems and Technologies, 2020. 参考文献 1. A. Tsanas and S. Arora, “Large-scale Clusteringed with Parkinson's Disease using Acoustic Analysis of Sustained Vowels: Findings in the Parkinson's Voice Initiative Study”. The 13th International Joint Conference on Biomedical Engineering Systems and Technologies, 2020 (英語) 0.78
2. M. Alhussein, “Monitoring Parkinson’s Disease in Smart Cities,” IEEE Access, vol. 2. M. Alhussein, “Monitoring Parkinson’s Disease in Smart Cities”, IEEE Access, vol。 0.83
5, pp. 19835– 5, pp。 19835– 0.79
19841, 2017. 19841, 2017. 0.85
3. E. Rovini, C. Maremmani, and F. Cavallo, “How Wearable Sensors Can Support Parkinson's Disease 3. E. Rovini, C. Maremmani, F. Cavallo, “ウェアラブルセンサーはパーキンソン病を治療できる 0.82
Diagnosis and Treatment: A Systematic Review,” Frontiers in Neuroscience, vol. 診断と治療:体系的なレビュー」神経科学のフロンティア、vol。 0.66
11, 2017. 4. 11, 2017. 4. 0.85
L. Borzi, M. Varrecchia, S. Sibille, G. Olmo, C. A. Artusi, M. Fabbri, M. G. Rizzone, A. Romagnolo, M. Zibetti, and L. Lopiano, “Smartphone-Based Estimation of Item 3.8 of the MDS-UPDRS-III for Assessing Leg Agility in People With Parkinson's Disease,” IEEE Open Journal of Engineering in Medicine and Biology, vol. L. Borzi, M. Varrecchia, S. Sibille, G. Olmo, C. A. Artusi, M. Fabbri, M. G. Rizzone, A. Romagnolo, M. Zibetti, L. Lopiano, "Smartphone-Based Estimation of Item 3.8 of MDS-UPDRS-III for Assessing Leg Agility in People With Parkinson's Disease", IEEE Open Journal of Engineering in Medicine and Biology, vol。 0.90
1, pp. 140–147, 2020. 1、p。 140–147, 2020. 0.74
5. F. M. Skidmore, C. A. Mackman, B. Pav, L. M. Shulman, C. Garvan, R. F. Macko, and K. M. 5. F. M. Skidmore, C. A. Mackman, B. Pav, L. M. Shulman, C. Garvan, R. F. Macko, K. M。 0.85
Heilman, The Journal of Rehabilitation Research and Development, vol. Heilman, The Journal of Rehabilitation Research and Development, Vol. (英語) 0.84
45, no. 9, p. 1343, 2008. 45、ノー。 9, p. 1343, 2008。 0.82
6. J. Kondragunta, C. Wiede, and G. Hirtz, “Gait analysis for early Parkinson’s disease detection based on deep learning,” Current Directions in Biomedical Engineering, vol. 6. J. Kondragunta, C. Wiede, G. Hirtz, “Gait analysis for early Parkinson’s disease detection based on Deep learning”. Current Directions in Biomedical Engineering, Vol. 0.86
5, no. 1, pp. 5位はノー。 1、p。 0.69
9–12, 2019. 9–12, 2019. 0.84
7. H. Fleyeh and J. Westin, “Extracting Body Landmarks from Videos for Parkinson Gait Analysis,” 7. H. Fleyeh and J. Westin, “Extracting Body Landmarks from Videos for Parkinson Gait Analysis” (英語) 0.88
2019 IEEE 32nd International Symposium on Computer-Based Medical Systems (CBMS), 2019. 2019 IEEE 32nd International Symposium on Computer-Based Medical Systems (CBMS)、2019。 0.93
8. M. E. Morris, F. Huxham, J. Mcginley, K. Dodd, and R. Iansek, “The biomechanics and motor 8. M. E. Morris, F. Huxham, J. Mcginley, K. Dodd, R. Iansek, “バイオメカニクスとモーター” 0.89
control of gait in Parkinson disease,” Clinical Biomechanics, vol. パーキンソン病の歩行制御」、臨床バイオメカニクス、vol。 0.53
16, no. 6, pp. 16、いいえ。 6, pp。 0.75
459–470, 2001. 459–470, 2001. 0.84
9. A. Saboor, T. Kask, A. Kuusik, M. M. Alam, Y. L. Moullec, I. K. Niazi, A. Zoha, and R. Ahmad, “Latest Research Trends in Gait Analysis Using Wearable Sensors and Machine Learning: A Systematic Review,” IEEE Access, vol. 9. A. Saboor, T. Kask, A. Kuusik, M. M. Alam, Y. L. Moullec, I. K. Niazi, A. Zoha, R. Ahmad, “Wearable Sensors and Machine Learning: A Systematic Review”, IEEE Access, vol.
訳抜け防止モード: 9. A. Saboor, T. Kask, A. Kuusik, M. M. Alam Y. L. Moullec, I. K. Niazi, A. Zoha R. Ahmad, “ウェアラブルセンサーと機械学習を用いた歩行分析の最新研究動向 : システムレビュー” IEEE Access , vol。
0.87
8, pp. 167830–167864, 2020. 8, pp。 167830–167864, 2020. 0.82
10. M. Buda, A. Maki, and M. A. Mazurowski, “A systematic study of the class imbalance problem in 10. M. Buda, A. Maki, and M. A. Mazurowski, “クラス不均衡問題の体系的研究” 0.91
convolutional neural networks,” Neural Networks, vol. 畳み込みニューラルネットワーク」とNeural Networksは言う。 0.69
106, pp. 249–259, 2018. 106, pp。 249–259, 2018. 0.82
11. J.-F. Chen, W.-L. Chen, C.-P. Huang, S.-H. Huang, and A.-P. Chen, “Financial Time-Series Data Analysis Using Deep Convolutional Neural Networks,” 2016 7th International Conference on Cloud Computing and Big Data (CCBD), 2016. 11. J.-F. Chen, W.-L. Chen, C.-P. Huang, S.-H. Huang, A.-P. Chen, “Financial Time-Series Data Analysis Using Deep Convolutional Neural Networks”, 2016 7th International Conference on Cloud Computing and Big Data (CCBD) 2016”. 2016年7月1日閲覧。 0.79
12. A. K. Pandey, A. I. Khan, Y. 12. A. K. Pandey, A. I. Khan, Y。 0.85
B. Abushark, M. M. Alam, A. Agrawal, R. Kumar, and R. A. Khan, “Key Issues in Healthcare Data Integrity: Analysis and Recommendations,” IEEE Access, vol. B. Abushark, M. M. Alam, A. Agrawal, R. Kumar, R. A. Khan, “Key Issues in Healthcare Data Integrity: Analysis and Recommendations”, IEEE Access, vol。 0.94
8, pp. 40612–40628, 2020. 8, pp。 40612–40628, 2020. 0.82
英語(論文から抽出)日本語訳スコア
13. O. Fink, Q. Wang, M. Svensén, P. Dersin, W.-J. 13. O. Fink, Q. Wang, M. Svensén, P. Dersin, W.-J 0.86
Lee, and M. Ducoffe, “Potential, challenges and future directions for deep learning in prognostics and health management applications,” Engineering Applications of Artificial Intelligence, vol. Lee, and M. Ducoffe, “Potential, Challenge and future direction for Deep Learning in prognostics and health management applications”, Engineering Applications of Artificial Intelligence, Vol. 0.82
92, p. 103678, 2020. 92, p. 103678, 2020。 0.90
14. N. M. Tahir and H. H. Manap, “Parkinson Disease Gait Classification based on Machine Learning 14. N. M. Tahir と H. H. Manap, “Parkinson Disease Gait Classification based on Machine Learning” 0.88
Approach,” Journal of Applied Sciences, vol. とjournal of applied sciences, vol. は述べている。 0.61
12, no. 2, pp. 12、いいえ。 2、p。 0.68
180–185, 2012. 180–185, 2012. 0.84
15. A. S. Alharthi, S. U. Yunas, and K. B. Ozanyan, “Deep Learning for Monitoring of Human Gait: A 15. A.S. Alharthi, S. U. Yunas, K. B. Ozanyan, “Deep Learning for Monitoring of Human Gait: A” 0.87
Review,” IEEE Sensors Journal, vol. とIEEE Sensors Journalは書いている。 0.59
19, no. 21, pp. 19、いいえ。 21、p。 0.70
9575–9591, 2019. 9575–9591, 2019. 0.84
16. N. Kour, Sunanda, and S. Arora, “Computer-Vision Based Diagnosis of Parkinson’s Disease via Gait: 16. N. Kour, Sunanda, S. Arora, “コンピュータビジョンによる歩行によるパーキンソン病の診断” 0.79
A Survey,” IEEE Access, vol. IEEE Access, vol. “A Survey”。 0.87
7, pp. 156620–156645, 2019. 7, pp。 156620–156645, 2019. 0.82
17. H. H. Manap, N. M. Tahir, and A. I. M. Yassin, “Statistical analysis of parkinson disease gait classification using Artificial Neural Network,” 2011 IEEE International Symposium on Signal Processing and Information Technology (ISSPIT), 2011. 17. h. h. manap, n. m. tahir, a. i. m. yassin, "statistical analysis of parkinson disease gait classification using artificial neural network", 2011 ieee international symposium on signal processing and information technology (isspit), 2011 (英語) 0.87
18. N. Kour, Sunanda, and S. Arora, “Computer-Vision Based Diagnosis of Parkinson’s Disease via Gait: 18. N. Kour, Sunanda, S. Arora, “コンピュータビジョンによる歩行によるパーキンソン病の診断” 0.79
A Survey,” IEEE Access, vol. IEEE Access, vol. “A Survey”。 0.87
7, pp. 156620–156645, 2019. 7, pp。 156620–156645, 2019. 0.82
19. Goldberger, A., Amaral, L., Glas, L., Hausdorff., Ivanov, P.C., Mark, R., …& Stanley, H. E. (2000). 19. Goldberger, A., Amaral, L., Glas, L., Hausdorff., Ivanov, P.C., Mark, R., ...& Stanley, H.E. (2000)。 0.92
‘PhysioBank, PhysioToolkit, and PhysioNet’: Components of a new research resource for complex phsiologic signals. ‘physiobank, physiotoolkit, and physionet’: 複雑な地質情報のための新しい研究資源の構成要素。 0.70
Circulation [Online]. 循環[オンライン]. 0.73
101 (23), pp. 101 (23), pp。 0.71
e215-e220. e215-e220。 0.47
20. S. O'shea, M. E. Morris, and R. Iansek, “Dual Task Interference During Gait in People With Parkinson Disease: Effects of Motor Versus Cognitive Secondary Tasks,” Physical Therapy, vol. 20. S. O'shea, M. E. Morris, R. Iansek, “Dual Task Interference During Gait in People with Parkinson Disease: Effects of Motor Versus Cognitive secondary Tasks, Vol. 0.84
82, no. 9, pp. 82だ 9, pp。 0.60
888–897, 2002. 888–897, 2002. 0.84
21. M. H. Thaut, R. R. Rice, T. B. Janzen, C. P. Hurt-Thaut, and G. C. Mcintosh, “Rhythmic auditory stimulation for reduction of falls in Parkinson’s disease: a randomized controlled study,” Clinical Rehabilitation, vol. 21. M. H. Thaut、R. R. Rice、T. B. Janzen、C. P. Hurt-Thaut、およびG. C. Mcintoshは、「パーキンソン病の転倒の減少のためのリズム聴覚刺激:ランダム化制御研究」、臨床リハビリテーション、vol。 0.80
33, no. 1, pp. 33、いいえ。 1、p。 0.70
34–43, 2018. 34–43, 2018. 0.84
22. P. Moyer, “Treadmill Exercise May Improve Parkinson Disease Symptoms,” Neurology Today, vol. 22. P. Moyer, “Treadmill Exercise may improvee Parkinson Disease Symptoms”, Neurology Today, vol. 0.84
6, no. 17, p. 20, 2006. 6、いいえ。 2006年9月17日、p.20。 0.68
23. A. Karatsidis, G. Bellusci, H. Schepers, M. D. Zee, M. Andersen, and P. Veltink, “Estimation of Ground Reaction Forces and Moments During Gait Using Only Inertial Motion Capture,” Sensors, vol. 23. A. Karatsidis, G. Bellusci, H. Schepers, M. D. Zee, M. Andersen, P. Veltink, “Estimation of Ground Reaction Forces and Moments during Gait Using Only Inertial Motion Capture”, Sensors, Vol. 0.90
17, no. 12, p. 75, 2016. 17、いいえ。 12, P. 75, 2016。 0.80
24. M. Sreenivasa, M. Millard, M. Felis, K. Mombaur, and S. I. Wolf, “Optimal Control Based Stiffness Identification of an Ankle-Foot Orthosis Using a Predictive Walking Model,” Frontiers in Computational Neuroscience, vol. 24. M. Sreenivasa, M. Millard, M. Felis, K. Mombaur, S. I. Wolf, “Optimal Control Based Stiffness Identification of an Ankle-Foot Orthosis Using a Predictive Walking Model”, Frontiers in Computational Neuroscience, Vol. 0.90
11, 2017. 25. 11, 2017. 25. 0.85
F. Shaheen, B. Verma, and M. Asafuddoula, “Impact of Automatic Feature Extraction in Deep Learning Architecture,” 2016 International Conference on Digital Image Computing: Techniques and Applications (DICTA), 2016. F. Shaheen, B. Verma, M. Asafuddoula, “Impact of Automatic Feature extract in Deep Learning Architecture”. 2016 International Conference on Digital Image Computing: Techniques and Applications (DICTA), 2016 0.83
26. S. Ledesma, M.-A. 26. S. Ledesma, M.-A。 0.80
Ibarra-Manzano, E. Cabal-Yepez, D.-L. Almanza-Ojeda, and J.-G. AvinaCervantes, “Analysis of Data Sets With Learning Conflicts for Machine Learning,” IEEE Access, vol. Ibarra-Manzano, E. Cabal-Yepez, D.-L. Almanza-Ojeda, J.-G. AvinaCervantes, “Analysis of Data Sets With Learning Conflicts for Machine Learning”, IEEE Access, vol。 0.83
6, pp. 45062–45070, 2018. 6, pp。 45062–45070, 2018. 0.82
27. S. Shinde, S. Prasad, Y. Saboo, R. Kaushick, J. Saini, P. K. Pal, and M. Ingalhalikar, “Predictive markers for Parkinson's disease using deep neural nets on neuromelanin sensitive MRI,” NeuroImage: Clinical, vol. 27. S. Shinde、S. Prasad、Y. Saboo、R. Kaushick、J. Saini、P.K. Pal、およびM. Ingalhalikarは、「神経メラニン感受性MRIにディープニューラルネットワークを用いたパーキンソン病の予測マーカー」と述べています。
訳抜け防止モード: 27. S. Shinde, S. Prasad, Y. Saboo, R. Kaushick J. Saini, P. K. Pal, M. Ingalhalikar, “ニューロメラニン感受性MRI上のディープニューラルネットを用いたパーキンソン病の予測マーカー” NeuroImage: Clinical , vol。
0.86
22, p. 101748, 2019. 22, p. 101748, 2019。 0.93
28. A. Shrestha and A. Mahmood, “Review of Deep Learning Algorithms and Architectures,” IEEE 28. A. Shrestha と A. Mahmood, “Review of Deep Learning Algorithms and Architectures” IEEE 0.87
Access, vol. 7, pp. アクセス、vol。 7, pp。 0.71
53040–53065, 2019. 53040–53065, 2019. 0.84
29. D. Qin, J. Yu, G. Zou, R. Yong, Q. Zhao, and B. Zhang, “A Novel Combined Prediction Scheme Based on CNN and LSTM for Urban PM2.5 Concentration,” IEEE Access, vol. 29. D.Qin, J. Yu, G. Zou, R. Yong, Q. Zhao, B. Zhang, “A Novel Combined Prediction Scheme based on CNN and LSTM for Urban PM2.5 concentration”, IEEE Access, vol. 0.91
7, pp. 20050–20059, 2019. 7, pp。 20050–20059, 2019. 0.82
30. A. Shawahna, S. M. Sait, and A. El-Maleh, “FPGA-Based Accelerators of Deep Learning Networks 30. A. Shawahna, S.M. Sait, A. El-Maleh, “FPGAベースのディープラーニングネットワークの加速器” 0.77
for Learning and Classification: A Review,” IEEE Access, vol. For Learning and Classification: A Review”, IEEE Access, vol。 0.74
7, pp. 7823–7859, 2019. 7, pp。 7823–7859, 2019. 0.82
31. Y. Tian, “Artificial Intelligence Image Recognition Method Based on Convolutional Neural Network 31. Y. Tian, “畳み込みニューラルネットワークに基づく人工知能画像認識法” 0.82
Algorithm,” IEEE Access, vol. アルゴリズム”、ieee access、vol.1。 0.62
8, pp. 125731–125744, 2020. 8, pp。 125731–125744, 2020. 0.82
32. Y. Chen, Z. Lin, X. Zhao, G. Wang, and Y. Gu, “Deep Learning-Based Classification of Hyperspectral Data,” IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 32. Y. Chen, Z. Lin, X. Zhao, G. Wang, and Y. Gu, “Deep Learning-Based Classification of Hyperspectral Data”, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol。 0.90
7, no. 6, pp. 7、いいえ。 6, pp。 0.77
2094–2107, 2014. 2094–2107, 2014. 0.84
33. E. Shelhamer, J. 33. E. Shelhamer、J。 0.88
Long, and T. Darrell, “Fully Convolutional Networks for Semantic Segmentation,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. Long, and T. Darrell, “Fully Convolutional Networks for Semantic Segmentation”, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 0.85
39, no. 4, pp. 39位、ノー。 4, pp。 0.80
640–651, 2017. 640–651, 2017. 0.84
英語(論文から抽出)日本語訳スコア
34. K. He, X. Zhang, S. Ren, and J. 34. K. He, X. Zhang, S. Ren, J。 0.86
Sun, “Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. Sun, “Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition”, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol。 0.79
37, no. 9, pp. 37、いいえ。 9, pp。 0.77
1904–1916, 2015. 1904–1916, 2015. 0.84
35. A. Ben-Cohen and H. Greenspan, “Liver lesion detection in CT using deep learning techniques,” 35. A. Ben-Cohen and H. Greenspan, “Liver lesion Detection in CT using Deep Learning techniques”。 0.89
Handbook of Medical Image Computing and Computer Assisted Intervention, pp. Handbook of Medical Image Computing and Computer Assisted Intervention, pp. 0.85
65–90, 2020. 65–90, 2020. 0.84
36. S. Wang, M. Zhou, Z. Liu, Z. Liu, D. Gu, Y. Zang, D. Dong, O. Gevaert, and J. Tian, “Central focused convolutional neural networks: Developing a data-driven model for lung nodule segmentation,” Medical Image Analysis, vol. 36. S. Wang, M. Zhou, Z. Liu, Z. Liu, D. Gu, Y. Zang, D. Dong, O. Gevaert, J. Tian, "Central Focus Convolutional neural Network: Developing a data-driven model for lung nodule segmentation", Medical Image Analysis, vol。 0.90
40, pp. 172–183, 2017. 40, pp。 172–183, 2017. 0.82
37. B. Ramsundar and R. B. Zadeh, TensorFlow for deep learning: from linear regression to 37. B. RamsundarとR. B. Zadeh、ディープラーニングのためのTensorFlow:線形回帰から線形回帰へ 0.78
reinforcement learning. Beijing: O'Reilly Media, 2018. 強化学習。 北京:O'Reilly Media、2018年。 0.71
38. S. U. Yunas, A. Alharthi, and K. B. Ozanyan, “Multi-modality sensor fusion for gait classification 38. U.U. Yunas, A. Alharthi, K. B. Ozanyan, “Multi-modality sensorfusion for gait classification” 0.82
using deep learning,” 2020 IEEE Sensors Applications Symposium (SAS), 2020. using deep learning” 2020 ieee sensors applications symposium (sas) 2020年。 0.68
39. Y. Ho and S. Wookey, “The Real-World-Weight Cross-Entropy Loss Function: Modeling the Costs 39. Y. HoとS. Wookey, “The Real-World-Weight Cross-Entropy Loss Function: Modeling the Costs” 0.80
of Mislabeling,” IEEE Access, vol. とIEEE Accessは述べている。 0.39
8, pp. 4806–4813, 2020. 8, pp。 4806–4813, 2020. 0.82
40. A. Mehmood, M. Maqsood, M. Bashir, and Y. Shuyuan, “A Deep Siamese Convolution Neural Network for Multi-Class Classification of Alzheimer Disease,” Brain Sciences, vol. 40. A. Mehmood, M. Maqsood, M. Bashir, Y. Shuyuan, “A Deep Siamese Convolution Neural Network for Multi-Class Class Classification of Alzheimer Disease”, Brain Sciences, vol。 0.90
10, no. 2, p. 84, 2020. 10、いいえ。 2、p.84、2020。 0.75
41. M. S. M. Guntor, R. Sahak, A. Zabidi, N. M. Tahir, I. M. Yassin, Z. I. Rizman, R. Baharom, and N. A. Wahab, “Convolutional Neural Network (CNN) based Gait Recognition System using Microsoft Kinect Skeleton Features,” International Journal of Engineering & Technology, vol. 41. M.S.M. Guntor, R. Sahak, A. Zabidi, N. M. Tahir, I. M. Yassin, Z. I. Rizman, R. Baharom, and N. A. Wahab, “Convolutional Neural Network (CNN) based Gait Recognition System using Microsoft Kinect Skeleton Features”, International Journal of Engineering & Technology, vol. 0.91
7, no. 4.11, p. 202, 2018. 7、いいえ。 4.11, p. 202, 2018 0.79
42. S. Mondal, K. Agarwal, and M. Rashid, “Deep Learning Approach for Automatic Classification of XRay Images using Convolutional Neural Network,” 2019 Fifth International Conference on Image Information Processing (ICIIP), 2019. 42. S. Mondal, K. Agarwal, M. Rashid, “Deep Learning Approach for Automatic Classification of XRay Images using Convolutional Neural Network”. 2019年の第5回画像情報処理国際会議(ICIIP)。 0.86
43. S. Bhowmick, A. Nandy, P. Chakraborty, and G. C. Nandi, “Gait biometrics: A vision based approach for cloths invariant walking pattern classification,” 2013 IEEE International Conference on Signal Processing, Computing and Control (ISPCC), 2013. 43. S. Bhowmick, A. Nandy, P. Chakraborty, G. C. Nandi, “Gait Biometrics: A vision based approach for cloths invariant walking pattern classification”. 2013 IEEE International Conference on Signal Processing, Computing and Control (ISPCC), 2013. 0.87
44. J. L. Riskowski, “Gait and neuromuscular learning effects through the use of a gait monitoring 44. J. L. Riskowski「歩行モニタリングによる歩行と神経筋の学習効果」 0.77
system,” 2009 IEEE International Conference on Rehabilitation Robotics, 2009. 2009年IEEE International Conference on Rehabilitation Robotics、2009年。 0.65
                             ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。