論文の概要、ライセンス

# (参考訳) ランニングとウォーキングのためのリアルタイムウェアラブル歩行位相セグメンテーション [全文訳有]

Real-Time Wearable Gait Phase Segmentation For Running And Walking ( http://arxiv.org/abs/2205.04668v1 )

ライセンス: CC BY 4.0
Jien-De Sui, Wei-Han Chen, Tzyy-Yuang Shiang and Tian-Sheuan Chang(参考訳) 畳み込みニューラルネットワーク(CNN)に基づく分類タスクでは、異なるテストケース下で各フェーズを正確に分類するために、時間遅延や重重なり合ったスライディングウィンドウの煩雑な手動設定が必要であり、これはIMU(Inertial-Measure ment-Unit)センサーデータのストリーミングには適さないため、異なるシナリオに適応できない。 本稿では,単一の6軸imuセンサのみを用いたセグメンテーションに基づく歩行位相検出法を提案する。 提案したセグメンテーションは、歩行位相を考慮した受容場設定とIMU指向処理順序を備えたCNNを用いており、高い精度で1000HzまでのIMUのサンプリングレートに適合し、リアルタイム計算では20Hzまでのサンプリングレートを低下させることができる。 20Hzサンプリングレートデータを用いたモデルでは,揺動時間8.86ms,姿勢時間9.12ms,歩行位相検出96.44\%,ストライド検出99.97\%の平均誤差が得られる。 携帯電話でのリアルタイム実装は1秒のセンサーデータに36ミリ秒しかかからない。

Previous gait phase detection as convolutional neural network (CNN) based classification task requires cumbersome manual setting of time delay or heavy overlapped sliding windows to accurately classify each phase under different test cases, which is not suitable for streaming Inertial-Measurement -Unit (IMU) sensor data and fails to adapt to different scenarios. This paper presents a segmentation based gait phase detection with only a single six-axis IMU sensor, which can easily adapt to both walking and running at various speeds. The proposed segmentation uses CNN with gait phase aware receptive field setting and IMU oriented processing order, which can fit to high sampling rate of IMU up to 1000Hz for high accuracy and low sampling rate down to 20Hz for real time calculation. The proposed model on the 20Hz sampling rate data can achieve average error of 8.86 ms in swing time, 9.12 ms in stance time and 96.44\% accuracy of gait phase detection and 99.97\% accuracy of stride detection. Its real-time implementation on mobile phone only takes 36 ms for 1 second length of sensor data.
公開日: Tue, 10 May 2022 04:43:34 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Real-Time Wearable Gait Phase Segmentation For リアルタイムウェアラブル歩行位相セグメンテーション 0.60
Running And Walking ランニングとウォーキング 0.68
Jien-De Sui1, Wei-Han Chen2, Tzyy-Yuang Shiang3 and Tian-Sheuan Chang4 慈円De Sui1,Wei-Han Chen2,Tzyy-Yuang Shiang3,Tian-Sheuan Chang4 0.27
14Instituter of Electronics, National Chiao Tung University, Hsinchu, Taiwan 14 台湾・日中市立チアオタング大学電子工学研究所 0.64
23Department of Athletic Performance, National Taiwan Normal University, Taipei, Taiwan 23 台湾台北国立台湾師範大学体育科 0.54
Email: 1vigia117.ee06g@nctu .edu.tw, 2gn01800083@gmail.co m, 3tyshiang@gmail.com, 4tschang@g2.nctu.edu .tw メール: 1vigia117.ee06g@nctu .edu.tw, 2gn01800083@gmail.co m, 3tyshiang@gmail.com, 4tschang@g2.nctu.edu .tw 0.24
2 2 0 2 y a M 0 1 2 2 0 2 y a m 0 1 である。 0.53
] G L . s c [ ] G L。 sc [ 0.47
1 v 8 6 6 4 0 1 v 8 6 6 4 0 0.42
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Abstract—Previous gait phase detection as convolutional neural network (CNN) based classification task requires cumbersome manual setting of time delay or heavy overlapped sliding windows to accurately classify each phase under different test cases, which is not suitable for streaming Inertial-Measurement -Unit (IMU) sensor data and fails to adapt to different scenarios. 抽象 — 畳み込みニューラルネットワーク(CNN)ベースの分類タスクでは、異なるテストケースで各フェーズを正確に分類するために、時間遅延や重重なり合ったスライディングウインドウの面倒な手動設定が必要で、これはIMU(Inertial-Measure ment-Unit)センサーデータのストリーミングには適さないため、異なるシナリオに適応できない。 0.76
This paper presents a segmentation based gait phase detection with only a single six-axis IMU sensor, which can easily adapt to both walking and running at various speeds. 本稿では,単一の6軸imuセンサのみを用いたセグメンテーションに基づく歩行位相検出法を提案する。
訳抜け防止モード: 本稿では6軸IMUセンサのみを用いたセグメンテーションに基づく歩行位相検出について述べる。 歩くことと走ることの両方に簡単に適応できます
0.78
The proposed segmentation uses CNN with gait phase aware receptive field setting and IMU oriented processing order, which can fit to high sampling rate of IMU up to 1000Hz for high accuracy and low sampling rate down to 20Hz for real time calculation. 提案したセグメンテーションは、歩行位相を考慮した受容場設定とIMU指向処理順序を備えたCNNを用いており、高い精度で1000HzまでのIMUのサンプリングレートに適合し、リアルタイム計算では20Hzまでのサンプリングレートを低下させることができる。 0.71
The proposed model on the 20Hz sampling rate data can achieve average error of 8.86 ms in swing time, 9.12 ms in stance time and 96.44% accuracy of gait phase detection and 99.97% accuracy of stride detection. 20Hzサンプリングレートデータに基づくモデルでは、スイング時間8.86ms、姿勢時間9.12ms、歩行位相検出96.44%、ストライド検出99.97%の平均誤差が得られる。
訳抜け防止モード: 20Hzサンプリングレートデータを用いたモデルでは, スイング時の平均誤差は8.86msである。 9.12msの姿勢時間と96.44%の歩行位相検出精度 99.97 %のストライド検出
0.84
Its real-time implementation on mobile phone only takes 36 ms for 1 second length of sensor data. 携帯電話でのリアルタイム実装は1秒のセンサーデータに36ミリ秒しかかからない。 0.72
Index Terms—IMU sensor, convolution neural networks Index Terms - IMUセンサー、畳み込みニューラルネットワーク 0.78
(CNNs), gait phase detection, personal health care. (CNN)、歩行位相検出、個人医療。 0.55
I. INTRODUCTION I. イントロダクション 0.64
Gait phase is an important parameter in a lot of applications such as personal health care [1-3] or sports training to further develop other gait parameters and applications such as gait cycle, stride length, stride height [4-5] and inertial navigation system (INS) [6]. 歩行段階は, 歩容周期, ストライド長, ストライド高さ [4-5] および慣性ナビゲーションシステム (ins) [6] などの他の歩容パラメータと応用をさらに発展させるために, パーソナルヘルスケア (1-3) やスポーツトレーニングなどの多くのアプリケーションにおいて重要なパラメータである。 0.83
To identify gait phase, optical or force plates based methods can provide accurate results but suffer from high product cost and limited test environments. 歩行相を特定するために、光学プレートまたは力板ベースの方法は正確な結果を与えることができるが、高い製品コストと限られたテスト環境に苦しむ。
訳抜け防止モード: 歩行位相の同定には光学的・力的プレート法が有効である 製品コストと限られたテスト環境に悩まされています
0.62
On the other hand, the IMU-based system is not only low cost but also unconstrained to specific environments. 一方、IMUベースのシステムは低コストであるだけでなく、特定の環境に制限されない。 0.72
Based on IMU sensor data, previous works assume zero velocity and accelerations in the stance phase, denoted as ZVU (zero velocity update) [7-10], to classify gait phase. IMUセンサデータに基づいて、従来の研究は、歩行位相を分類するために、ZVU(ゼロ速度更新)[7-10]と表記される姿勢相におけるゼロ速度と加速度を仮定する。
訳抜け防止モード: IMUセンサデータに基づく過去の研究は速度をゼロにする ZVU (0 velocity update ) [ 7 - 10 ] と表記されるスタンスフェーズの加速度。 歩行フェーズを分類します
0.75
[11] developed a threshold-based method for gait classification with a gyroscope. [11]ジャイロスコープを用いた歩行分類のためのしきい値に基づく手法を開発した。 0.64
[12] uses the dynamic threshold to detect the gait phase. 12]は動的しきい値を用いて歩行位相を検出する。 0.82
[13] develops a gait event detection with a hidden Markov Model filter . 13]隠れマルコフモデルフィルタを用いた歩行イベント検出を開発する。 0.61
However, these algorithms need personalized or per sensor calibrations, and threshold setting to get accurate results, or are limited to the normal walking speed case. しかし、これらのアルゴリズムにはパーソナライズされたりセンサーごとのキャリブレーションが必要であり、正確な結果を得るために閾値設定が必要である。 0.63
This work was supported in part by the Ministry of Science and Technology, この研究は、一部は科学技術省によって支援された。 0.60
Taiwan, under Grant 109-2634-F-009-022. 台湾 109-2634-f-009-022 0.59
J. -D. Sui, W. -H. J-D。 通称、w.-h。 0.64
Chen, T. -Y. Shiang and T. -S. チェン、t -y。 シャイアンとt.s。 0.59
Chang, ”Real-Time Wearable Gait Phase Segmentation for Running And Walking,” 2020 IEEE International Symposium on Circuits and Systems (ISCAS), 2020, pp. 1-5, doi: 10.1109/ISCAS45731.2 020.9181210. chang, "real-time wearable gait phase segmentation for running and walking", 2020 ieee international symposium on circuits and systems (iscas), 2020, pp. 1-5, doi: 10.1109/iscas45731.2 020.9181210。
訳抜け防止モード: chang, ”real-time wearable gait phase segmentation for running and walking”(英語) 2020 ieee international symposium on circuits and systems (iscas) に参加して 2020, pp. 1 - 5, doi : 10.1109 / iscas45731.2020.9181 210。
0.65
Fig. 1. The sensor system architecture 図1。 センサシステムアーキテクチャ 0.45
(a) and its PCB (b). (a)とそのPCB (b) 0.56
(c) The position of sensor on the foot. (c)足のセンサーの位置。 0.60
Beyond above signal processing approaches, one popular way in recent years is to use neural network (NN), CNN or recurrent neural network (RNN) to classify gait phase since one stride can be divided into two phase: the stance phase, and the swing phase. 上記の信号処理アプローチ以外にも、近年の一般的な方法の1つは、歩行フェーズをスタンスフェーズとスイングフェーズの2つのフェーズに分けることができるため、歩行フェーズを分類するためにニューラルネットワーク(NN)、CNN、またはリカレントニューラルネットワーク(RNN)を使用することである。
訳抜け防止モード: 上記の信号処理アプローチを超えて、近年の一般的な方法はニューラルネットワーク(nn)を使用することである。 cnn または recurrent neural network (rnn) による歩行相の分類 1つのステップは、スタンディングフェーズとスイングフェーズの2つのフェーズに分けられる。
0.79
The NN, CNN or RNN based gait phase detection works [14-17] use the superior feature extraction capability of neural network to classify phase accurately. NN、CNN、RNNベースの歩行位相検出作業[14-17]は、ニューラルネットワークの優れた特徴抽出機能を使用して、位相を正確に分類する。
訳抜け防止モード: ニューラルネットワークの優れた特徴抽出能力を用いたNN, CNN, RNNに基づく歩行位相検出 [14-17 ] 位相を正確に分類することです
0.80
Their approaches consider this problem as a classification task. 彼らのアプローチは、この問題を分類課題と見なしている。 0.59
However, since the IMU sensor data is a time streaming data but NN requires a fixed size input, they split the input into segments, and classify each segment into one type of gait phase. しかし、IMUセンサデータはタイムストリーミングデータであるが、NNは固定サイズの入力を必要とするため、入力をセグメントに分割し、各セグメントを1種類の歩行フェーズに分類する。 0.81
Such whole segment classification is coarse grained and thus needs a sliding window approach or adjusts input delay to identify suitable start point of gait phase, which heavily depends on personal walking speed and types, and thus fails to extend to the running case. このようなセグメント全体の分類は粗い粒度であり、個人の歩行速度やタイプに大きく依存する歩行相のスタート点を特定するために、スライディングウインドウアプローチや入力遅延を調整する必要があるため、ランニングケースに拡張できない。 0.82
To solve above problems, we treat 上記の問題を解決するために 0.74
this task as a segmentation problem with CNN. このタスクはCNNのセグメンテーション問題である。 0.67
For this task, the segmentation approach enables per sample point classification instead of whole segment classification. このタスクのために、セグメント化アプローチは、全セグメント分類ではなく、サンプルポイント毎の分類を可能にする。 0.59
This fine grained approach avoids the problem of personalized adjustment and is suitable for streaming sensor data and walking/running types. このきめ細かいアプローチは、パーソナライズされた調整の問題を回避し、ストリーミングセンサデータとウォーキング/ランニングタイプに適している。 0.66
The その... 0.20
英語(論文から抽出)日本語訳スコア
CNN approach allows end-to-end training without explicit calibration, or ZVU assumption. CNNアプローチは、明示的な校正やZVU仮定なしでエンドツーエンドのトレーニングを可能にする。 0.48
The proposed segmentation network builds upon U-Net [18], called IMU-Net, but with gait phase aware receptive field setting and IMU oriented processing order to attain high accuracy. 提案するセグメンテーションネットワークは, imu-net と呼ばれる u-net [18] を基盤として構築するが, 歩行位相認識の受容場設定と imu 指向の処理順序により精度が向上する。
訳抜け防止モード: 提案するセグメンテーションネットワークはU-Net [18 ]上に構築される。 IMU-ネットと呼ばれるが、歩行位相を意識した受容野の設定 IMU指向の処理順序 精度を上げるためです
0.65
This lightweight network can run on mobile phones in real time to enable wearable applications. この軽量ネットワークは携帯電話上でリアルタイムで動作し、ウェアラブルアプリケーションを可能にする。
訳抜け防止モード: この軽量ネットワークは携帯電話でリアルタイムで動く ウェアラブルの応用を可能にします
0.82
A. Sensor II. A.センサー II。 0.79
METHODOLOGY Fig. 1 shows the sensor system architecture, which consists of a 9-axis IMU from InvenSense (MPU-9250), 1Gb flash memory for storage, and a Bluetooth chip for wireless data transmission. 方法論 図1は、InvenSense(MPU-9250) の9軸IMU、ストレージ用1Gbフラッシュメモリ、無線データ伝送用Bluetoothチップからなるセンサーシステムアーキテクチャを示している。 0.49
The IMU consists of tri-axis accelerometer, triaxis gyroscope and tri-axis magnetometer, but this paper only uses tri-axis accelerometer and tri-axis gyroscope. IMUは三軸加速度計、三軸ジャイロスコープ、三軸磁気センサから構成されるが、この論文は三軸ジャイロスコープと三軸ジャイロスコープのみを使用する。 0.53
This system is integrated in a PCB of form factor 30 × 30 mm2. このシステムは、フォームファクタ30×30mm2のPCBに統合される。 0.76
This prototype consumes 9.3mA current for the highest sampling rate at 1000 Hz, and can ensure all day long continuous data recording with the 450 mAh rechargeable 3.7 V Li-ion battery. このプロトタイプは最大サンプリングレート1000hzで9.3maの電流を消費し、450mahの充電可能な3.7vliイオン電池で1日中の連続データ記録を保証する。 0.70
The sampling rate will be constrained to 20 Hz in case of real time data transmission to mobile phone due to speed constraint of Bluetooth. サンプリングレートは、Bluetoothの速度制限により、携帯電話にリアルタイムデータ送信を行う場合、20Hzに制限される。 0.65
The sensor is mounted and fixed on the shoe as shown in Fig. 1 (c). センサは、図1(c)に示すように、靴に装着固定される。 0.74
The accelerometer has a dynamic range of ± 16 g (g = 9.81 m/s2) and the gyroscope has a dynamic range of ± 2000 °/s [19]. 加速度計のダイナミックレンジは ± 16g (g = 9.81 m/s2)、ジャイロスコープのダイナミックレンジは ± 2000 °/s [19] である。 0.86
B. Data Collection Three normal subjects (two males, one female) with ages from 20 to 30 years old are chosen for the experiments. B.データ収集 実験には20歳から30歳までの健常者3名(男性2名,女性1名)が選ばれた。 0.77
The test tasks includes running and walking with various speeds (5, 7, 9, 11, 13, 17 and 19 km/h) based on the treadmill record. テスト作業には、トレッドミルの記録に基づいて、様々な速度(5, 7, 9, 11, 13, 17, 19 km/h)で走ったり歩いたりすることが含まれる。 0.70
In addition to the speed, the data involves two common types of the strike: fore-foot strike (FFS) and rear-foot strikes (RFS). 速度に加えて、データはフォアフットストライク(FFS)とリアフットストライク(RFS)の2つの一般的なタイプのストライクを含んでいる。 0.65
The ground truth data is collected by an optical measurement system, the Optojump system, which consists of transmitting and receiving bars to measure contact times during the activity with 1ms accuracy. 1msの精度で活動中の接触時間を測定するためのバーの送信と受信からなる光学計測システムであるオプトジャンプシステムによって、地上真実データを収集する。 0.85
These experiments are conducted on the treadmill and the flat ground. これらの実験はトレッドミルと平地で行われた。 0.62
The amount of the whole raw dataset is 1593 seconds. 生のデータセット全体の量は1593秒である。 0.77
C. Data preprocessing c. データプリプロセッシング 0.73
Fig. 2 shows the whole processing pipeline diagram, which consists of two data preprocessing steps before feeding to IMU-Net: data synchronization, segmentation and normalization. 図2は、データ同期、セグメンテーション、正規化の2つのデータ前処理ステップからなる、処理パイプライン図全体を示しています。 0.75
Fig. 3. The data after synchronization step, where the blue line is ground truth label (0: stance, 1: swing), and orange line is the norm of tri-accelerometer. 図3。 同期ステップ後のデータは、青い線が接地真理ラベル(0:スタンス、1:スイング)であり、オレンジ線が三加速度計の標準である。 0.66
For data synchronization, the ground truth from the Optojump system only provides start points of the stance and swing phases, in the unit of seconds, but the network input from the sensor is samples from 1000Hz or 20Hz sampling rate. データ同期では、オプトジャンプシステムの基底真理は数秒単位でスタントとスイングフェーズの開始点のみを提供するが、センサーから入力されたネットワークは1000Hzまたは20Hzサンプリングレートのサンプルである。 0.83
Thus, we synchronize the sensor data and the ground truth data according to the sampling rate of the IMU sensor, as shown in Fig 3. そこで、図3に示すように、IMUセンサのサンプリングレートに応じて、センサデータと地上真実データとを同期させる。 0.78
After synchronization, we split the raw data to 1000-samplepoint (1 second) windows with 500-sample-point (0.5 seconds) overlapping between windows, both in sensor data and ground truth. 同期後,500サンプルポイント (0.5秒) 重なり合う1000サンプルポイント (1秒) のウィンドウに,センサデータと地上真実の両方で生データを分割した。 0.84
In which, one second window is chosen because one step is usually smaller than one second. 一つのステップが1秒より小さいため、1秒のウィンドウが選択される。 0.70
Thus, this window can cover a whole step. したがって、このウィンドウは全ステップをカバーできる。 0.84
In addition, the overlapping can make the model more robust across the window boundary. さらに、オーバーラップにより、モデルがウィンドウ境界を越えてより堅牢になる。 0.73
With this method, the whole dataset becomes 2604 seconds long, 1.6 times than the original one. この方法では、データセット全体の長さは2604秒となり、元のデータセットの1.6倍になる。
訳抜け防止モード: この方法でデータセット全体の長さは2604秒になる。 1.6倍であった。
0.71
Note that the testing data is also split to 1000-sample-point but without any overlapping. テストデータは1000個のサンプルに分割されるが、重複はしない。 0.74
The order of image segmentation input usually use CHW (channel × height × width). 画像分割入力の順序は通常CHW(チャンネル×高さ×幅)を使用する。 0.82
But the time series data is expanded across spatial domain (different sensors) and temporal domain (different sample points). しかし、時系列データは空間領域(差分センサ)と時間領域(差分サンプルポイント)にまたがって拡張される。 0.80
Fig 4 shows two types of IMU oriented processing order: Spatial-First or TemporalFirst. 図4は、IMU指向の処理順序の2つのタイプを示している。 0.61
The Spatial-First input will arrange input data as 1 × 6 空間優先入力は入力データを1×6に配置する 0.83
Fig. 2. The whole processing pipeline diagram. 図2。 処理パイプライン図全体。 0.58
Fig. 4. Two types of the IMU oriented order (a) for Spatial-First and for Temporal-First. 図4。 空間ファーストと時間ファーストの2種類のIMU指向順序(a) 0.60
英語(論文から抽出)日本語訳スコア
TABLE I. The detail of both model. テーブルI。 両方のモデルの詳細。 0.60
Model U-Net IMU-Net モデル U-Net IMU-Net 0.46
Side Num. Layers Channel/filter size 側面 ヌム 層 Channel/filter サイズ 0.50
Channel/filter size Channel/filter サイズ 0.69
1 2 3 4 5 6 1 2 3 4 5 6 0.43
7 8 double-Conv Maxpooling double-Conv Maxpooling double-Conv Maxpooling double-Conv Maxpooling double-Conv 7 8 double-conv maxpooling double-conv maxpooling double-conv maxpooling double-conv maxpooling double-conv 0.37
Up-conv double-Conv up‐conv ダブルコンフ 0.39
Up-conv double-Conv up‐conv ダブルコンフ 0.39
Up-conv double-Conv up‐conv ダブルコンフ 0.39
Up-conv Enc up‐conv 円c 0.33
Dec double-Conv 12月 ダブルコンフ 0.53
Conv 9 10 Parameters コンブ 9 10 パラメータ 0.64
FLOPs 64/3 × 3 */1 × 2 128/3 × 3 */1 × 2 256/3 × 3 */1 × 2 512/3 × 3 */1 × 2 フラップ 64/3 × 3 */1 × 2 128/3 × 3 */1 × 2 256/3 × 3 */1 × 2 512/3 × 3 */1 × 2 0.46
1024/3 × 3 1024/3 × 3 0.39
*/1 × 2 512/3 × 3 */1 × 2 256/3 × 3 */1 × 2 128/3 × 3 */1 × 2 64/3 × 3 2/3 × 3 */1 × 2 512/3 × 3 */1 × 2 256/3 × 3 */1 × 2 128/3 × 3 */1 × 2 64/3 × 3 2/3 × 3 0.41
29,649,794 29,649,794 0.20
21.6G 8/3 × 3 */1 × 4 16/3 × 3 */1 × 4 32/3 × 3 */1 × 4 64/3 × 3 */1 × 4 128/3 × 3 */1 × 4 64/3 × 3 */1 × 4 32/3 × 3 */1 × 4 16/3 × 3 */1 × 4 8/3 × 3 2/3 × 3 487,154 0.78G 21.6G 8/3 × 3 */1 × 4 16/3 × 3 */1 × 4 32/3 × 3 */1 × 4 64/3 × 3 */1 × 4 128/3 × 3 */1 × 4 64/3 × 3 */1 × 4 32/3 × 3 */1 × 4 16/3 × 3 */1 × 4 8/3 × 3 2/3 × 3 487,154 0.78G 0.31
not suitable for mobile devices. モバイルデバイスには向いていません 0.56
Fig 5 shows the proposed network architectures that is modified from U-Net, denoted as IMU-Net. 図5は、IMU-Netと表記されるU-Netから修正されたネットワークアーキテクチャを示している。 0.59
In the collected dataset, the stance time or swing time is usually larger than the half of input. 収集されたデータセットでは、スタンス時間またはスイング時間は通常、入力の半分よりも大きい。 0.74
However, with 1 × 2 max-pooling in U-Net, the receptive field of U-Net is 2 × 2 × 2 × 2 × 3 = 48, which is much smaller than half of input size, 500. しかし、u-net における 1 × 2 の最大プールでは、u-net の受容場は 2 × 2 × 2 × 2 × 3 = 48 であり、入力サイズの半分の 500 よりもはるかに小さい。 0.80
The receptive field refers to the part of the input that is visible or effective in the last layer. レセプティブフィールドは、最後の層で見える、または有効である入力の一部を指す。 0.66
To fit the receptive requirement of gait phase detection without complexity increase, we modify the filter size of max-pooling layer from 1 × 2 into 1 × 4. 複雑度を増すことなく,歩行位相検出の受容要件を満たすため,最大プーリング層のフィルタサイズを1×2から1×4に変更した。 0.82
Thus, the receptive field of IMUnet is 4 × 4 × 4 × 4 × 3 = 768, larger than half of input size. したがって、imunet の受容体は 4 × 4 × 4 × 4 × 3 = 768 であり、入力サイズの半分よりも大きい。 0.78
To further reduce complexity, we also decrease the number of channels in each convolutional layer. さらに複雑性を低減すべく,各畳み込み層におけるチャネル数を減少させる。 0.83
Table I shows the detailed network architectures of both models. 表1は、両方のモデルの詳細なネットワークアーキテクチャを示しています。 0.62
The proposed model only needs 487K parameters, which is only 1.6% of parameters in U-Net. 提案したモデルは487Kパラメータしか必要とせず、U-Netのパラメータの1.6%に過ぎない。 0.62
III. TRAINING AND EVALUATION III。 トレーニングと評価 0.61
Both models use cross entropy as the loss function. どちらのモデルも損失関数としてクロスエントロピーを用いる。 0.70
For model training, we use random subsets of the training dataset (mini-batches), and train the model for 500 epochs with batch size 100. モデルトレーニングでは、トレーニングデータセットのランダムなサブセット(ミニバッチ)を使用し、バッチサイズ100の500エポックでモデルをトレーニングします。 0.68
For optimization, we use the Adam optimizer with default setting of β = (0.9,0.999) and  = 1e-8, set learning rate to 0.01, and initialize model parameters with random assignments from the normal distribution. 最適化には、デフォルト設定の β = (0.9,0.999) と sh = 1e-8 を用い、学習レートを 0.01 に設定し、正規分布からランダムな代入を伴うモデルパラメータを初期化する。 0.74
For validation purposes, we applied a 3-fold cross validation with independent subjects on the training dataset and testing dataset. 検証のために、トレーニングデータセットとテストデータセットに、独立した被験者と3倍のクロス検証を適用した。 0.55
We also use 10% of training dataset for validation dataset. バリデーションデータセットには、トレーニングデータセットの10%も使用しています。 0.58
Besides, for obtaining the best model, we monitor the loss of validation set in the さらに、最良のモデルを得るためには、検証セットの損失を監視します。 0.69
Fig. 5. The structure of the IMU-Net. 図5。 IMU-Netの構造。 0.63
× 1000 (channel × sensors × one segment length) as shown in Fig 4 (a). ×1000(チャネル×センサ×1セグメント長)を図4(a)に示す。 0.73
By analogy with segmentation input, applying convolution on the Spatial-First input will find correlation between different sensors first and then fuse different temporal features in the later layers. セグメンテーション入力と類似することにより、空間ファースト入力に畳み込みを適用することで、まず異なるセンサー間の相関を見つけ、その後、後層の異なる時間的特徴を融合する。 0.61
The Temporal-First will arrange input data as 6 × 1 × 1000 (sensors × channel × one segment length), where 6 for 6-axis sensor data (tri-axis accelerometer, and tri-axis gyroscope) and 1000 for data length in a window. テンポラルファーストは入力データを6×1×1000(センサー×チャンネル×1セグメント長)に配置し、6軸センサデータ(トリ軸加速度計、トリ軸ジャイロスコープ)と1000をウィンドウ内のデータ長に配置する。 0.82
Applying convolution on the Temporal-First input will find temporal correlation within each sensor first and then fuse different sensor features in the later layers. テンポラルファーストの入力に畳み込みを適用すると、まず各センサーに時間的相関が見つかり、その後に各センサーの特徴が融合する。 0.70
Following segmentation, we apply normalization on our dataset. セグメント化後、データセットに正規化を適用する。 0.60
In our data, the scale of accelerometer range and gyroscope range is different, ± 16 g (g = 9.81 m/s2) and ± 2000 °/s separately. このデータでは加速度計範囲とジャイロスコープ範囲のスケールが異なるが、± 16 g (g = 9.81 m/s2) と± 2000 °/s は別々である。 0.73
Therefore, we divide these sensor data by their maximum value to avoid imbalanced input data scale. したがって、これらのセンサデータを最大値で分割し、不均衡な入力データスケールを避ける。 0.74
D. Network Architecture D.ネットワークアーキテクチャ 0.86
The proposed network is based on U-Net as shown in Fig. 5. 提案するネットワークは,図5に示すようなU-Netに基づいている。 0.74
A na¨ıve U-Net application to this task will be like the following with some modifications. このタスクに対する na sıve の U-Net アプリケーションには,次のような変更がある。 0.66
U-Net contains two paths, encoding path (left side) and a decoding path (right side). U-Netには2つのパスがあり、エンコーディングパス(左側)とデコードパス(右側)がある。 0.72
The encoding path consists of several combinations of double-convolutional layers and max pooling layers. 符号化経路は、二重畳み込み層と最大プーリング層の組み合わせからなる。 0.80
The double convolutional layer has two convolutional layers, and each convolutional layer uses 3 × 3 filters, rectified linear unit (ReLU) for activation function and batch-normalization. 二重畳み込み層は2つの畳み込み層を持ち、各畳み込み層は3×3フィルタ、整列線形ユニット(ReLU)を用いて活性化関数とバッチ正規化を行う。 0.74
Following each double-convolutional layer is a 1 × 2 maxpooling layer instead of widely used 2 × 2 max-pooling. 各二重畳み込み層に従うと、広く使用される2×2のmaxプールではなく、1×2のmaxpooling層となる。 0.57
This max-pooling is to downsample data along the temporal domain instead of different axises of the sensor that will lose too much information. この最大プーリングは、多くの情報を失うセンサーの異なる軸の代わりに、時間領域に沿ってデータをサンプリングする。 0.74
The decoding path is just the reverse of the encoding path. 復号パスは、符号化パスのちょうど逆である。 0.71
In which, each step concatenates upsampled feature maps with the correspondingly feature maps from the encoding path. これにより、各ステップは、エンコーディングパスからアップサンプリングされた特徴マップと対応する特徴マップを結合する。 0.69
Similar to the encoder side, the decoder uses 1 × 2 up-convolution. エンコーダ側と同様に、デコーダは1×2のアップ畳み込みを使用する。 0.72
At the final layer, a convolutional layer is used to map feature maps into two classes, swing phase and stance phase. 最終層では、畳み込み層を使用して特徴写像を2つのクラス、スイングフェーズとスタンスフェーズにマップする。 0.68
This model setting is denoted as U-Net in this paper. 本論文では、このモデル設定をU-Netと表記する。 0.65
Above network has two drawbacks: small receptive field that will result in classification error, and high complexity that is 上層ネットワークには2つの欠点がある: 分類エラーをもたらす小さな受容場と、高い複雑さである。 0.80
英語(論文から抽出)日本語訳スコア
TABLE II. The performance of U-Net and IMU-Net, Temporal-First and Spatial-First, where the number in swing and stance time is mean ± standard deviation. テレビII。 U-Net, IMU-Net, テンポラルファースト, 空間ファーストでは, 揺動時間と姿勢時間が±標準偏差となる。 0.55
Model Type Swing(ms) Stance(ms) モデルタイプ swing(ms) スタンス(ms) 0.76
U-Net IMU-Net U-Net IMU-Net 0.29
Spatial-First 15.41±15.68 14.87±14.74 空間初見 15.41±15.68 14.87±14.74 0.26
Temporal-First 28.23±38.15 14.50±19.21 時制28.23±38.15 14.50±19.21 0.27
Spatial-First 9.80±10.47 8.20±9.57 空間最初の9.80±10.47 8.20±9.57 0.22
Temporal-First 19.90±18.15 10.43±12.27 時制19.90±18.15 10.43±12.27 0.26
Gait phase accuracy(%) Stride accuracy(%) 歩行位相精度(%) Stride (複数形 Strides) 0.35
95.98 98.69 95.98 98.69 0.25
95.44 97.17 95.44 97.17 0.25
96.88 99.59 96.88 99.59 0.25
96.47 98.28 96.47 98.28 0.25
TABLE III. The performance of two model for running and walking case. 第3話。 ランニングケースとウォーキングケースの2つのモデルの性能 0.56
In Spatial-First type. Model Type 空間ファースト型。 モデルタイプ 0.63
Swing(ms) Stance(ms) Accuracy(%) Swing(ms) スタンス(ms) 精度(%) 0.76
Gait accuracy(%) Gait (複数形 Gaits) 0.33
U-Net IMU-Nnet U-Net IMU-Nnet 0.29
Running Walking 15.36±13.95 15.32±13.83 走る 歩く 15.36±13.95 15.32±13.83 0.49
15.82±27.11 11.67±21.51 15.82±27.11 11.67±21.51 0.12
96.06 98.69 96.06 98.69 0.25
96.28 98.64 96.28 98.64 0.25
Running 9.26±9.57 7.84±8.75 9.26±9.57 7.84±8.75 0.14
97.57 99.58 97.57 99.58 0.25
Walking 12.94±15.24 10.30±13.57 歩く 12.94±15.24 10.30±13.57 0.42
97.52 99.65 97.52 99.65 0.25
training process and save the best model when validation loss is minimum. 検証損失が最小限の場合、トレーニングプロセスと最高のモデルを保存する。 0.69
IV. RESULT AND REAL-TIME IMPLEMENTATION IV。 リサートおよびリアルタイム実装 0.52
A. Result Table II shows the error analysis of both U-Net and IMUNet on different types of input data with four metrics. A.結果 表IIは、4つのメトリクスを持つ異なるタイプの入力データに対して、U-NetとIMUNetの両方のエラー解析を示す。 0.72
The four metrics are all evaluated according to per sample prediction result due to the segmentation approach. 4つの指標は,それぞれ,セグメント化アプローチによるサンプル予測結果に従って評価される。 0.80
The accuracy of stance and swing time is represented by their mean error and standard deviation. 姿勢とスイング時間の精度は、平均誤差と標準偏差によって表される。 0.76
The accuracy of gait phase is to divide the correct gait phase prediction points with whole number of sample points. 歩行位相の精度は、すべてのサンプル点で正しい歩行位相予測点を分割することである。 0.70
Stride accuracy is to divide the correctly predicted stride count with the total number of strides, which is more coarse grained than the gait phase accuracy. strideの精度は、正しく予測されたストライド数を、歩行位相精度よりも粗いストライドの総数に分割することである。 0.72
The result shows that the proposed IMU-Net has better accuracy than the na¨ıve U-Net due to the gait phase aware receptive field setting to cover more global features. その結果,提案手法は,よりグローバルな特徴をカバーするため,歩行相認識受容場設定により,na sıve u-netよりも精度が向上した。 0.58
The mean error of stance and swing phase is both lower than 10ms. 姿勢と揺動の位相の平均誤差はどちらも10ms未満である。 0.71
The Spatial-First processing order has higher performance than other cases since the correlation between different sensors can be well extracted first by the convolution layer. コンボリューション層によって最初に異なるセンサ間の相関をよく抽出できるため、空間優先処理順序は他のケースよりも高い性能を示す。 0.77
Table III shows that the IMU-Net can get high performance on both walking and running case. Table IIIは、IMU-Netがウォーキングケースとランニングケースの両方で高いパフォーマンスが得られることを示している。 0.58
Table IV shows comparisons with other approaches. 表IVは他の方法との比較を示す。 0.67
It is difficult to compare our result with other work due to different metrics, settings and datasets. メトリクスや設定、データセットが異なるため、その結果を他の作業と比較するのは困難です。 0.72
However, with the segmentation approach, our approach can achieve much lower errors than others. しかし,セグメンテーションアプローチでは,本手法は他の手法よりもはるかに低い誤差が得られる。 0.69
B. Real time implementation with low sampling rate b. サンプリングレートの低いリアルタイム実装 0.65
The proposed model has implemented on mobile phone with real time data connection from sensors. 提案モデルは,センサからリアルタイムデータ接続を行う携帯電話上で実装されている。 0.78
However, the sampling rate of the sensor is constrained to 20 Hz in this case. しかし、この場合、センサのサンプリングレートは20Hzに制限される。 0.62
Thus, the model is retrained with 20Hz sampled data. 従って、モデルは20Hzのサンプルデータで再訓練される。 0.73
We downsample the dataset from 1000 Hz to 20 Hz by random downsampling, which is repeated 20 times to increase data データセットを1000Hzから20Hzにランダムにダウンサンプルし、データを増やすために20回繰り返します。 0.81
TABLE IV. The comparison of previous studies and our method. iv番テーブル。 過去の研究と方法の比較を行った。 0.64
Author Stance time error 著者 スタンスタイムエラー 0.65
Fabio A. Storm [21] ファビオ・a・ストーム[21] 0.60
31±10ms Swing time error None 31±10ms Swing Time error なし 0.64
J. -Y. Jung [15] R. L. Evans [14] Our method J。 -y。 Jung [15] R. L. Evans [14] 我々の方法 0.41
Author L. V. Nguyen [12] T. Steinmetzer [16] 著者 L. V. Nguyen [12] T. Steinmetzer [16] 0.54
Our method Author Z. Ding [17] Our method 我々の方法 著者 Z. Ding [17]我々の方法 0.75
21.6ms (Continuous error) 21.6ms(連続誤差) 0.71
23ms (mean error) 23ms (複数形 23ms) 0.62
9.80±10.47ms 9.80±10.47ms 0.26
8.20±9.57ms 8.20±9.57ms 0.13
Stride detection accuracy 97.2% 95.8% 99.59% ストライド検出精度 97.2% 95.8% 99.59% 0.55
Gait phase accuracy 96.4% 96.88% 歩行位相精度 96.4% 96.88% 0.46
TABLE V. The accuracy of IMU-Net implement on 20Hz. TABLE V. IMU-Netの精度は20Hzである。 0.75
Swing(ms) 8.86±11.62 Swing(ms) 8.86±11.62 0.29
Stance(ms) 9.12±12.05 スタンス(ms) 9.12±12.05 0.53
IMU-Net @ 20Hz Gait phase accuracy(%) IMU-Net @ 20Hz歩行位相精度(%) 0.77
96.44 Stride accuracy(%) 96.44 Stride (複数形 Strides) 0.34
99.97 amount to compensate the loss due to lower sampling rate. 99.97 サンプリングレートの低下による損失を補償する量。 0.47
Thus, the dataset becomes 52080 seconds with 20 sample points per second. これによりデータセットは、毎秒20のサンプルポイントで52080秒になる。 0.69
We use the 20 Hz dataset as the training dataset, modify the pooling size to 1 × 2 and apply the same training procedure. トレーニングデータセットとして20hzデータセットを使用し、プールサイズを1×2に変更し、同じトレーニング手順を適用する。 0.69
Table V show the 3-fold cross validation result, which has even slightly higher performance than the original one due to data augmentation. 表 v は 3 倍のクロス検証結果を示し、データ拡張により元の値よりも若干高いパフォーマンスを示す。 0.79
The trained model is deployed as Android application with TensorFlow Lite. トレーニングされたモデルは、TensorFlow LiteでAndroidアプリケーションとしてデプロイされる。 0.66
Table VI shows the detailed results on multiple phones. 表6は、複数の電話で詳細な結果を示しています。 0.50
Note that the execution time is the time of infering our model single time (one second sensor data) on the device. 実行時間とは、デバイス上でモデル1回(第2のセンサーデータ)を推測する時間である。 0.71
Based on the result, the maximum execution time is 36 ms, which is 3.6% of one second, and achieves real-time execution. その結果、最大実行時間は36msであり、1秒の3.6%であり、リアルタイム実行を実現している。 0.69
V. CONCLUSION V.コンキュレーション 0.76
This paper has presented a segmentation network approach for accurate gait phase detection based on single IMU sensor data. 本稿では,単一IMUセンサデータに基づく正確な歩行位相検出のためのセグメンテーションネットワーク手法を提案する。 0.79
This deep learning approach enables end-to-end training without explicit calibration or design assumption, which successfully adapts to various speed of walking and running. このディープラーニングアプローチは、明示的なキャリブレーションや設計仮定なしにエンドツーエンドのトレーニングを可能にする。 0.52
The network based on U-Net has modified with gait phase aware receptive field settings and IMU oriented processing order. U-Netに基づくネットワークは、歩行位相を考慮した受容フィールド設定とIMU指向処理順序を改良した。 0.73
With 20 Hz sampling rate, the model achieves average error of 8.86 ± 11.62 ms on swing phase, 9.12 ± 12.05 on 20Hzサンプリングレートで、スイングフェーズで平均8.86 ± 11.62 ms、9.12 ± 12.05の誤差を達成する。
訳抜け防止モード: 20Hzのサンプリングレートで、平均誤差は8.86 ± 11.62 msである。 9.12 ± 12.05 オン
0.69
TABLE VI. The execution time on different device. テーブルvi 異なるデバイス上での実行時間。 0.52
Device OS CPU Execution Time(ms) 装置 OS CPU 実行時間(ms) 0.59
Samsung Galaxy J5 samsung galaxy j5 0.87
Redmi Note 5 Redmi Note 5 0.43
HTC U11 Google Pixel 3 XL HTC U11 Google Pixel 3 XL 0.43
Asus Zenfone 3 Asus Zenfone 6 Asus Zenfone 3 Asus Zenfone 6 0.43
Android 5 Android 9 Android 7 Android 9 Android 8 Android 9 Android 5 Android 9 Android 7 Android 9 Android 8 Android 9 0.42
Qualcomm Snapdragon 410 Qualcomm Snapdragon 636 Qualcomm Snapdragon 835 Qualcomm Snapdragon 845 Qualcomm Snapdragon 625 Qualcomm Snapdragon 855 Qualcomm Snapdragon 410 Qualcomm Snapdragon 636 Qualcomm Snapdragon 835 Qualcomm Snapdragon 845 Qualcomm Snapdragon 625 Qualcomm Snapdragon 855 0.42
36 26 18 9 20 18 36 26 18 9 20 18 0.42
英語(論文から抽出)日本語訳スコア
stance phase, 96.44 % accuracy of phase detection and 99.97 % accuracy of stride detection. 姿勢位相、96.44パーセントの位相検出精度、99.97パーセントのストライド検出精度。 0.79
The model can run also on mobile phones in real-time with low complexity. モデルは、複雑さの低い携帯電話でもリアルタイムに実行できる。 0.78
REFERENCES [20] M. M. Skelly and H. J. Chizeck, ”Real-time gait event detection for paraplegic FES walking,” IEEE Transactions on neural systems and rehabilitation engineering, vol. 参考 M.M.SkellyとH.J. Chizeckは、“麻痺性FES歩行のリアルタイム歩行イベント検出”、と語る。 0.43
9, pp. 59-68, 2001. pp. 59-68, 2001。 0.73
[21] F. A. Storm, C. J. Buckley, and C. Mazz, ”Gait event detection in laboratory and real life settings: Accuracy of ankle and waist sensor based methods,” Gait & posture, vol. F.A. Storm, C. J. Buckley, C. Mazz, ”Gait Event Detection in lab and real life settings:curcuracy of ankle and waist sensor based methods”. Gait & posture, Vol.
訳抜け防止モード: F. A. Storm, C. J. Buckley, C. Mazz』。 実験室および実生活環境における歩行事象検出 : 足首と腰のセンサーに基づく方法の精度」 歩行と姿勢。
0.65
50, pp. 42-46. 50、p.42-46。 0.40
[1] S. C. Milne, D. R. Hocking, N. Georgiou-Karistianis , A. Murphy, M. B. Delatycki, and L. A. Corben, ”Sensitivity of spatiotemporal gait parameters in measuring disease severity in Friedreich ataxia,” The Cerebellum, vol. [1] s. c. milne, d. r. hocking, n. georgiou-karistianis , a. murphy, m. b. delatycki, l. a. corben, 「フリードリヒ失調症における疾患重症度測定における時空間歩行パラメータの感度」
訳抜け防止モード: [1 ]S. C. Milne, D. R. Hocking, N. Georgiou - Karistianis, A. Murphy, M. B. Delatycki, L. A. Corben」。 Friedreich ataxiaの重症度測定における時空間歩行パラメータの感度 The Cerebellum , vol 。
0.79
13, pp. 677-688. 13、p.677-688。 0.71
[2] V. Rota, L. Perucca, A. Simone, and L. Tesio, ”Walk ratio (step length/cadence) as a summary index of neuromotor control of gait: application to multiple sclerosis,” International Journal of Rehabilitation Research, vol. 国際リハビリテーション研究ジャーナル(International Journal of Rehabilitation Research, Vol.)は「歩行の神経運動量制御の要約指標として、V. Rota、L. Perucca、A. Simone、L. Tesio。
訳抜け防止モード: V. Rota, L. Perucca, A. Simone, 歩行の神経運動制御の要約指標としての歩行比(歩数/ケイデンス) : 多発性硬化症への応用」 International Journal of Rehabilitation Research, vol. (英語)
0.75
34, pp. 265-269. 34, pp. 265-269。 0.87
[3] A. Viswanathan and L. Sudarsky, ”Balance and gait problems in the elderly,” in Handbook of clinical neurology. a. viswanathanとl. sudarskyは、臨床神経学のハンドブックで、“高齢者のバランスと歩行の問題”を説明している。 0.59
vol. 103: Elsevier, pp. 623634. vol.1。 103: Elsevier, pp. 623634。 0.65
[4] C. H. Chen, “Accelerometer only gait parameter extraction with all convolutional neural network,” M.S. thesis, Institute of Electronics, National Chiao Tung University, Hsinchu, Taiwan, 2018. 4] c. h. chen, “accelerometer only gait parameter extraction with all convolutional neural network” “m.s. thesis, institute of electronics, national chiao tung university, hsinchu, taiwan, 2018”。
訳抜け防止モード: C. H. Chen, “加速度計はすべての畳み込みニューラルネットワークによる歩行パラメータ抽出のみである”。 M.S.thesis, Institute of Electronics, National Chiao Tung University 中国、台湾、2018年。
0.79
[5] J. Hannink, T. Kautz, C. F. Pasluosta, K. G. Gaßmann, J. Klucken, and B. M. Eskofier, ”Sensor-based gait parameter extraction with deep convolutional neural networks,” IEEE journal of biomedical and health informatics, vol. 5] j. hannink, t. kautz, c. f. pasluosta, k. g. gaßmann, j. klucken, b. m. eskofier, “深い畳み込みニューラルネットワークを用いたセンサベースの歩行パラメータ抽出”。
訳抜け防止モード: [5 ]J. Hannink, T. Kautz, C. F. Pasluosta, K. G. Gaßmann、J. Klucken、B. M. Eskofier。 深部畳み込みニューラルネットワークを用いたセンサベース歩行パラメータ抽出」 IEEE Journal of Biomedical and Health Informationatics, vol。
0.83
21, pp. 85-93, Dec. 2016. 21 pp. 85-93, 2016年12月。 0.79
[6] Y. S. Suh and S. Park, ”Pedestrian inertial navigation with gait phase detection assisted zero velocity updating,” in 2009 4th International Conference on Autonomous Robots and Agents, 2009, pp. 336-341. 6] y.s. suh and s. park, “pedestrian inertial navigation with gait phase detection assisted zero velocity updates” 2009年 第4回自律ロボット・エージェント国際会議, pp. 336-341。 0.75
[7] X. Yun, J. Calusdian, E. R. Bachmann, and R. B. McGhee, ”Estimation of human foot motion during normal walking using inertial and magnetic sensor measurements,” IEEE transactions on Instrumentation and Measurement, vol. X. Yun, J. Calusdian, E. R. Bachmann, R. B. McGhee, “慣性および磁気センサーの測定による正常歩行時の人間の足の動きの推定” IEEEのInstrumentation and Measurement, vol. 0.88
61, pp. 2059-2072. 61, pp. 2059-2072。 0.85
[14] R. L. Evans and D. K. Arvind, ”Detection of gait phases using orient specks for mobile clinical gait analysis,” in 2014 11th International Conference on Wearable and Implantable Body Sensor Networks, pp. 149-154. R・L・エバンスとD・K・アーヴィンドは2014年の第11回ウェアラブルおよびインプラント可能な身体センサネットワークに関する国際会議, pp. 149-154で、モバイル臨床歩行分析のためのオリエントスペックを用いた歩行位相の測定を行った。
訳抜け防止モード: 14] R. L. Evans, D. K. Arvind, ”モバイル臨床歩行分析のためのオリエントスペックを用いた歩行位相の検出” 2014年第11回ウェアラブル・インプラント型ボディセンサネットワーク国際会議 pp . 149 - 154 .
0.75
[15] J. -Y. [15] J。 -y。 0.38
Jung, W. Heo, H. Yang, and H. Park, ”A neural network-based gait phase classification method using sensors equipped on lower limb exoskeleton robots,” Sensors, vol. Jung, W. Heo, H. Yang, and H. Park, “下肢外骨格ロボットを搭載したセンサーを用いたニューラルネットワークベースの歩行位相分類法”Sensors, vol。 0.82
15, pp. 27738-27759. 15p.27738-27759。 0.81
[16] T. Steinmetzer, I. Bonninger, M. Reckhardt, F. Reinhardt, D. Erk, and C. M. Travieso, ”Comparison of algorithms and classifiers for stride detection using wearables,” Neural Computing and Applications, pp. 112. T. Steinmetzer, I. Bo'nninger, M. Reckhardt, F. Reinhardt, D. Erk, C. M. Travieso, “ウェアラブルを使ったストライド検出のためのアルゴリズムと分類器の比較”、Neural Computing and Applications, pp. 112。 0.84
[17] Z. Ding, C. Yang, K. Xing, X. Ma, K. Yang, H. Guo, C. Yi, and F. Jiang, ”The real time gait phase detection based on long short-term memory,” in 2018 IEEE Third International Conference on Data Science in Cyberspace (DSC), pp. 33-38. Z.Ding, C. Yang, K. Xing, X. Ma, K. Yang, H. Guo, C. Yi, F. Jiang, “The realtime gait phase detection based on long short-term memory” in 2018 IEEE Third International Conference on Data Science in Cyberspace (DSC), pp. 33-38。
訳抜け防止モード: [17]z. ding, c. yang, k. xing, x. ma, k. yang, h. guo, c. yi, そしてf.jiang, “長時間の短期記憶に基づくリアルタイム歩行位相検出”。 2018年ieee第3回サイバースペースにおけるデータサイエンスに関する国際会議 pp . 33 - 38 .
0.80
[18] O. Ronneberger, P. Fischer, and T. Brox, ”U-Net: Convolutional networks for biomedical image segmentation,” in International Conference on Medical image computing and computer-assisted intervention, pp. 234241. 18] o. ronneberger, p. fischer, and t. brox, “u-net: convolutional networks for biomedical image segmentation” in international conference on medical image computing and computer-assisted intervention, pp. 234241。 0.44
[19] Y. S. Liu and K. A. Wen, “High precision trajectory reconstruction for wearable system using consumer- grade IMU,” Tech. Y.S. LiuとK.A. Wenは、“消費者レベルのIMUを使ってウェアラブルシステムの高精度な軌道再構築を行う”、と言っている。 0.44
Report. , May. 2018. 報告しろ 2018年5月。 0.56
[8] C. -C. Lo, C. [8]C。 -C。 ロー、C。 0.49
-P. Chiu, Y. -P。 Chiu, Y。 0.41
-C. Tseng, S. -C。 Tseng, S。 0.41
-A. Chang, and L. -A。 Chang, and L。 0.41
-C. Kuo, ”A walking velocity update technique for pedestrian dead-reckoning applications,” in 2011 IEEE 22nd International Symposium on Personal, Indoor and Mobile Radio Communications, pp. 1249-1253. -C。 2011年、ieee 22nd international symposium on personal, indoor and mobile radio communications, pp. 1249-1253。
訳抜け防止モード: -C。 歩行者の死亡者に対する歩行速度の更新技術。 2011年IEEE 22nd International Symposium on Personal, Indoor and Mobile Radio Communications pp . 1249 - 1253 .
0.56
[9] R. Zhang, H. Yang, F. H¨oflinger, and L. M. Reindl, ”Adaptive zero velocity update based on velocity classification for pedestrian tracking,” IEEE Sensors journal, vol. ieee sensors journal, vol. “[9] r. zhang, h. yang, f. h oflinger, l. m. reindl, “歩行者追跡の速度分類に基づく適応的ゼロ速度更新”。 0.82
17, pp. 2137-2145, 2017. 17, pp. 2137-2145, 2017 頁。 0.74
[10] Zhu, H. Anderson, and Y. Wang, ”A real-time on-chip algorithm for IMU-Based gait measurement,” in Pacific-Rim Conference on Multimedia, pp. 93-104. 9] Zhu, H. Anderson, Y. Wang, “A real-time on-chip algorithm for IMU-based gait Measurement” in Pacific-Rim Conference on Multimedia, pp. 93-104。
訳抜け防止モード: [10 ]Zhu, H. Anderson, Y. Wang IMUのためのリアルタイム・タイム・オン・チップアルゴリズム。 in Pacific - Rim Conference on Multimedia, pp. 93 - 104
0.69
[11] I. P. I. Pappas, T. Keller, S. Mangold, M. R. Popovic, V. Dietz, and M. Morari, ”A reliable gyroscope-based gait-phase detection sensor embedded in a shoe insole,” IEEE Sensors journal, vol. I.P.I. Pappas, T. Keller, S. Mangold, M. R. Popovic, V. Dietz, M. Morari, “ジャイロスコープによる歩行位相検出センサーが靴のインソールに埋め込まれている。 0.70
4, pp. 268-274, 2004. 4, pp. 268-274, 2004。 0.90
[12] L. V. Nguyen, H. M. La, and T. H. Duong, ”Dynamic Human Gait Phase Detection Algorithm,” in The ISSAT International Conference on Modeling of Complex Systems and Environments, Da Nang, Vietnam, 2015. ISSAT International Conference on Modeling of Complex Systems and Environments, Da Nang, Vietnam, 2015[12] L. V. Nguyen, H. M. La, T. H. Duong, “Dynamic Human Gait Phase Detection Algorithm”(人間の歩行位相検出アルゴリズム)
訳抜け防止モード: [12 ]L.V.Nguyen,H.M.La, そしてT.H. Duong, “Dynamic Human Gait Phase Detection Algorithm” だ。 ISSAT International Conference on Modeling of Complex Systems and Environments, ベトナム、2015年。
0.81
[13] A. Mannini, V. Genovese, and A. M. Sabatini, ”Online decoding of hidden Markov models for gait event detection using foot-mounted gyroscopes,” IEEE journal of biomedical and health informatics, vol. ieee journal of biomedical and health informatics, vol. “13] a. mannini, v. genovese, a. m. sabatini, and a. m. sabatini, “足付きジャイロスコープを用いた歩行イベント検出のための隠れマルコフモデルのオンラインデコード”。
訳抜け防止モード: A. Mannini, V. Genovese, A. M. Sabatini』 足付きジャイロスコープを用いた歩行イベント検出のための隠れマルコフモデルのオンライン復号化」 IEEE Journal of Biomedical and Health Informationatics, vol。
0.78
18, pp. 1122-1130. 18, pp. 1122-1130。 0.44
           ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。