論文の概要、ライセンス

# (参考訳) 慣性測定ユニットを用いた深部歩行追跡 [全文訳有]

Deep Gait Tracking With Inertial Measurement Unit ( http://arxiv.org/abs/2205.04666v1 )

ライセンス: CC BY 4.0
Jien De Sui, and Tian Sheuan Chang(参考訳) 本稿では,6軸慣性測定単位(imu)センサデータのみを用いた畳み込みニューラルネットワークによる足の動き追跡について述べる。 提案手法は, ディファレンシャル入力とウィンドウ入力を併用することで, 様々な歩行条件に適応できる。 トレーニングデータは、IMUセンサデータのスライディングとランダムウィンドウサンプリングによってさらに強化され、データの多様性が向上し、パフォーマンスが向上する。 提案手法は3次元出力の予測を1つのモデルに融合する。 提案した融合モデルでは, 平均誤差はX軸が2.30+-2.23cm, Y軸が0.91+-0.95cm, Z軸が0.58+-0.52cmとなる。

This paper presents a convolutional neural network based foot motion tracking with only six-axis Inertial-Measurement -Unit (IMU) sensor data. The presented approach can adapt to various walking conditions by adopting differential and window based input. The training data are further augmented by sliding and random window samplings on IMU sensor data to increase data diversity for better performance. The proposed approach fuses predictions of three dimensional output into one model. The proposed fused model can achieve average error of 2.30+-2.23 cm in X-axis, 0.91+-0.95 cm in Y-axis and 0.58+-0.52 cm in Z-axis.
公開日: Tue, 10 May 2022 04:42:49 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
IMU sensor ____________________ ____________________ ____________________ ____ IMUセンサ____________________ ____________________ ____________________ _________ 0.05
Volume 3(11) (2019) 巻第三十一(2019年) 0.49
Deep Gait Tracking With Inertial Measurement Unit 慣性測定ユニットを用いた深部歩行追跡 0.80
Jien De Sui, and Tian Sheuan Chang Institute of Electronics, National Chiao Tung University, Hsinchu 300, Taiwan 台湾・新中300国立華東大学 十円デ・スと天山チャン電機研究所 0.54
Abstract— This paper presents a convolutional neural network based foot motion tracking with only six-axis InertialMeasurement- Unit (IMU) sensor data. Inertial Measurement-Unit (IMU) センサデータのみを用いた畳み込みニューラルネットワークを用いた足の動き追跡手法を提案する。 0.70
The presented approach can adapt to various walking conditions by adopting differential and window based input. 提案手法は, ディファレンシャル入力とウィンドウ入力を併用することで, 様々な歩行条件に適応できる。 0.68
The training data are further augmented by sliding and random window samplings on IMU sensor data to increase data diversity for better performance. トレーニングデータは、IMUセンサデータのスライディングとランダムウィンドウサンプリングによってさらに強化され、データの多様性が向上し、パフォーマンスが向上する。
訳抜け防止モード: IMUセンサデータのスライディングとランダムウィンドウサンプリングによりトレーニングデータがさらに強化される データの多様性を高め パフォーマンスを向上させるのです
0.84
The proposed approach fuses predictions of three dimensional output into one model. 提案手法は3次元出力の予測を1つのモデルに融合する。 0.75
The proposed fused model can achieve average error of 2.30±2.23 cm in X-axis, 0.91±0.95 cm in Y-axis and 0.58±0.52 cm in Z-axis. この融合モデルにより, 平均誤差はX軸で2.30±2.23cm, Y軸で0.91±0.95cm, Z軸で0.58±0.52cmとなる。 0.57
Index Terms— IMU sensor, Convolutional neural networks (CNN), gait analysis, gait parameter. Index Terms — IMUセンサー、畳み込みニューラルネットワーク(CNN)、歩行分析、歩行パラメータ。 0.69
I. INTRODUCTION Foot motion tracking is getting popular due to its value in a wide range of applications such as health care or sport training [1-2]. 私は... 導入 足の動き追跡は、医療やスポーツトレーニングなどの幅広い応用において、その価値から人気が高まっている[1-2]。 0.51
The gait trajectory tracking enables users to calculate various gait parameters such as stride length, stride height and stride width [3-4]. 歩行軌跡追跡により、ストライド長、ストライド高さ、ストライド幅などの様々な歩行パラメータを算出できる[3-4]。 0.68
The optical based tracking methods can provide accurate tracking results but suffer from high product cost, complex setup and limited test environments [5-8]. 光ベースの追跡手法は正確な追跡結果を提供するが、製品コスト、複雑な設定、限られたテスト環境に悩まされる[5-8]。 0.65
On the other hand, the IMU (inertial measurement unit) based sensory systems allow measurement entity to be neither constrained in motion nor to any specific environments. 一方、imu(慣性測定ユニット)ベースの感覚システムでは、測定エンティティが動作に制約されず、特定の環境に制限されない。 0.58
Existing IMU based designs assumes zero velocity update and use double integral on IMU data to recreate the trajectory [9-10], which will need per sensor based or personalized calibrations to get correct results. 既存のIMUベースの設計では、速度をゼロにすると仮定し、IMUデータに二重積分を使って軌道を再現する[9-10]。 0.55
This paper presents the first trial of foot motion tracking with convolutional neural network (CNN). 本稿では,畳み込みニューラルネットワーク(CNN)を用いた足の動き追跡の最初の試行について述べる。 0.68
CNN is a popular deep learning approach in recent years due to its excellent performance for speech and computer vision (e g , image classification, action or gesture recognition). 近年のCNNは、音声やコンピュータビジョン(画像分類、行動認識、ジェスチャー認識など)に優れた性能を持つため、一般的なディープラーニングアプローチである。 0.63
CNN uses convolutional layers for feature extraction, and fully connected layers for classification or regression. CNNは特徴抽出に畳み込み層を使用し、分類や回帰には完全連結層を使用する。 0.66
Readers can refer [11] for more details. 詳細は[11]を参照してください。 0.51
Deep learning approaches can automate feature learning and final task learning without time consuming manual processing. ディープラーニングアプローチは、手動処理に時間を費やすことなく、機能学習と最終タスク学習を自動化することができる。 0.62
Several works have applied CNN on IMU data for activity recognition [12-14]. IMUデータにCNNを適用した研究がいくつかある[12-14]。 0.60
All these works are for classification. これらの作品は全て分類のためのものである。 0.52
On the other hand, the proposed work is for regression that predicts foot trajectory with CNN. 一方,提案する研究は,CNNによる足の軌道予測のためのものである。 0.64
In this paper, the foot trajectory per step is learned in an end-to-end way without explicit calibrations [9] or assumptions of zero velocity update [10]. 本稿では,ステップ毎の足の軌跡を,明示的な校正[9]やゼロ速度更新[10]の仮定なしでエンドツーエンドに学習する。 0.76
The proposed deep learning model fuses three dimension predictions into one to reduce model size while improve prediction accuracy. 提案したディープラーニングモデルでは,3次元の予測を1つに融合してモデルサイズを削減し,予測精度を向上する。
訳抜け防止モード: 深層学習モデルによる3次元予測の融合 予測精度を向上させながら、モデルサイズを小さくする。
0.82
This model also uses differential input and output to avoid absolute coordinate reference, and two data augmentations to increase data diversity for better robustness. このモデルはまた、絶対座標参照を避けるために差分入力と出力を使用し、2つのデータ拡張によりデータの多様性を高め、堅牢性を向上させる。 0.61
The presented approach adopts a Corresponding author: Jien-De Sui (email:vigia117.ee06 g@nctu.edu.tw). 提案されたアプローチは、対応する著者であるJien-De Sui(email:vigia117.e e06g@nctu.edu.tw)を採用する。 0.47
window based input to adapt to different length per step. ウィンドウベースの入力は、ステップごとに異なる長さに適応する。 0.63
The rest of the paper is organized as follows. 残りの論文は以下の通り整理される。 0.66
Section II shows the presented approach. 第2節は、提示されたアプローチを示す。 0.42
Section III shows the results and Section IV concludes this paper. 第3節は結果を示し、第4節はこの論文を締めくくる。 0.49
A. Sensor II. A.センサー II。 0.79
METHODOLOGY Fig. 1 The sensor system architecture 方法論 第1図 センサシステムアーキテクチャ 0.43
(a) and its PCB (b). (a)とそのPCB (b) 0.56
(c) The position of sensor on the foot. (c)足のセンサーの位置。 0.60
Fig. 1 shows the sensor system architecture, which consists of a 9axis IMU from InvenSense (MPU-9250), 1Gb flash memory for storage, and a Bluetooth chip for wireless data transmission. 図1は、InvenSense(MPU-9250) の9軸IMU、ストレージ用1Gbフラッシュメモリ、無線データ伝送用Bluetoothチップからなるセンサーシステムアーキテクチャを示している。 0.77
The IMU consists of tri-axis accelerometer, tri-axis gyroscope and tri-axis magnetometer. IMUは三軸加速度計、三軸ジャイロスコープ、三軸磁気計からなる。 0.58
This system is integrated in a PCB of form factor 30 このシステムは、フォームファクタ30のPCBに統合される 0.87
J. D. Sui and T. S. Chang, "Deep Gait Tracking With Inertial Measurement Unit," in IEEE Sensors Letters, vol. J.D. SuiとT.S. Chang, "Deep Gait Tracking with Inertial Measurement Unit" in IEEE Sensors Letters, vol.
訳抜け防止モード: j. d. sui と t.s. chang 「慣性測定ユニットを用いた深部歩行追跡」 ieeeセンサーの文字はvol.1。
0.64
3, no. 11, pp. 1-4, Nov. 2019, Art no. 7002404, doi: 10.1109/LSENS.2019.2 947625. 3 no. 11, pp. 1-4, nov. 2019, art no. 7002404, doi: 10.1109/lsens.2019.2 947625。 0.78
1949-307X © 2016 IEEE. 1949-307x 2016 ieee所属。 0.48
Personal use is permitted, but republication/redist ribution requires IEEE permission. 個人使用は許可されているが、レチベーション/再配布にはIEEEの許可が必要である。 0.40
See http://www.ieee.org/ publications standards/publicatio ns/rights/index.html for more information. 詳細はhttp://www.ieee.org/ publications standards/publicatio ns/rights/index.html を参照。 0.41
(Inserted by IEEE) (IEEEによる) 0.58
英語(論文から抽出)日本語訳スコア
Article # Volume 2(3) (2017) 第2巻(3)(2017年) 0.50
————————————————————————————————————– × 30 mm2. ————————————————————————————————————————————×30mm2。 0.21
This prototype consumes 9.3mA current for the highest the data amount will become 344,935 sample points (2315 seconds), sampling rate at 1000 Hz, and can ensure all day long continuous data which is 8.6 times than the original one. このプロトタイプは最高値の9.3ma電流を消費し、データ量は344,935サンプルポイント(2315秒)となり、サンプリングレートは1000hzとなり、元の8.6倍の1日分の連続データを保証する。 0.74
recording with the 450 mAh rechargeable 3.7 V Li-ion battery. 450 mahの充電可能な3.7vliイオン電池による記録。 0.66
The recorded data are transmitting to mobile phone or PC for further data processing. 記録されたデータは、さらなるデータ処理のために携帯電話またはPCに送信される。 0.68
The sensor is mounted and fixed on the shoe as shown in Fig 1. センサーは、図1に示すように、靴に取り付けられ固定される。 0.85
The sampling rate of this measurement is set to 500 Hz. この測定のサンプリングレートは500Hzに設定されている。 0.70
The accelerometer has a dynamic range of ± 16 g and the gyroscope has a dynamic range of ± 2000 °/s [15]. 加速度計は±16gのダイナミックレンジを持ち、ジャイロスコープは±2000 °/s[15]のダイナミックレンジを持つ。 0.84
B. Data Collection We collect the walking test of 10 normal people aged from 20 to 30 as our dataset. B.データ収集 20歳から30歳までの健常者10人の歩行検査をデータセットとして収集した。 0.70
The walking test is free walking that includes either a straight line walk, or circular walk. 歩行テストは、直線歩行または円形歩行のいずれかを含む自由歩行である。 0.77
The walking speed is ranged from 0.45m/s to 1.75m/s (1.64km/h to 6.30km/h) to test slower, preferred and faster walking speed. 歩行速度は 0.45m/s から 1.75m/s (1.64km/h から 6.30km/h) まで変化し、より遅く、好ましい、より速い歩行速度をテストできる。 0.54
The ground truth data is collected by a motion capture system, the VICON NEXUS camera system. 地上真理データはモーションキャプチャシステムであるvicon nexusカメラシステムによって収集される。 0.71
The average error of the VICON camera system is 0.1 to 0.3mm based on the environment setting and the condition of cameras. VICONカメラシステムの平均誤差は、カメラの環境設定と条件に基づいて0.1~0.3mmである。 0.79
The sampling rate of VICON system is set to 100 Hz. VICONシステムのサンプリングレートは100Hzに設定されている。 0.72
C. Data augmentation Before data augmentation, the amount of original dataset is 90,255 sample points (270 seconds). C.データ拡張 データ拡張の前に、元のデータセットの量は90,255サンプルポイント(270秒)である。 0.78
To fit the fixed size input requirement of the CNN model, we use a window based input that consists of 150 sample points per window as shown in Fig 2, which can help adapt to different length per step. cnnモデルの固定サイズの入力要求に適合するために、図2に示すように、1ウィンドウあたり150個のサンプルポイントからなるウィンドウベースの入力を使用する。
訳抜け防止モード: CNNモデルの固定サイズ入力要求に適合する。 ウィンドウベースの入力は ウィンドウごとに150個のサンプルポイントからなり 図2に示すように、ステップ毎に異なる長さに適応するのに役立ちます。
0.76
To further increase training data amounts, we implement two data augmentation methods for the proposed CNN model: sliding window and random window sampling. さらにトレーニングデータ量を増やすために,提案したCNNモデルに対して,スライディングウィンドウとランダムウィンドウサンプリングという2つのデータ拡張手法を実装した。 0.72
The first method, sliding window, is to split one step of sensor data to 150sample-point windows with 10-sample-point overlapping between windows, as shown in Fig 2. 最初のスライディングウインドウは、図2に示すように、センサーデータの1ステップを10サンプルポイント重なりの150サンプルポイントウインドウに分割する。
訳抜け防止モード: 最初の方法であるスライディングウィンドウは、センサデータの1ステップを150sample - 10sample - point overlapping - windowsに分割する。 図2に示すように。
0.88
Similar operations are also applied to the ground truth but use 30-sample-point windows with 2-samplepoint overlapping since the sampling rate of the Vicon system is roughly five times smaller than that in IMUs. 同様の操作は地平線にも適用されるが、Vicon システムのサンプリングレートは IMU の約5倍小さいため、2-samplepoint 重なり合う 30-sample-point ウィンドウを使用する。 0.72
With this method, the available data amount will become 110,856 sample points (744 seconds), which is 2.8 times than the original one. この方法では、利用可能なデータ量は110,856点(744秒)となり、これは元の2.8倍になる。 0.75
Fig. 2 Data augmentation with the window based method. 第2図 ウィンドウベースの方法によるデータ拡張。 0.73
The second data augmentation, random window, randomly chose five 150-sample-point windows from each step instead of the fixed and overlapped approach as the sliding window. 2番目のデータ拡張、ランダムウィンドウは、スライディングウィンドウとして固定および重なり合うアプローチではなく、各ステップから5つの150サンプルのウィンドウをランダムに選択した。 0.66
With this method, In this paper, we will combine the datasets generated by these two data augmentations for model training. この方法で。 本稿では、この2つのデータ拡張によって生成されたデータセットをモデルトレーニングのために組み合わせる。 0.68
The amount of whole dataset will become 455,791 sample points (3059 seconds), which is 11.3 times than the original one. データセット全体の量は455,791点(3059秒)となり、元の11.3倍になる。 0.73
Note that the testing data is also split to 150-sample-point windows but without any overlapping. テストデータは150サンプルのウィンドウに分割されるが、重複はない。 0.68
D. Data preprocessing The collected data are first segmented into steps. D.データ前処理 収集されたデータはまずステップに分割される。 0.69
One walking step length is roughly fewer than 400 sampling points as shown in Fig 2. 歩行ステップの長さは、図2に示すように、400点未満である。 0.82
We use 80% of steps for training, 10% of steps for validation and 10% of steps for testing. トレーニングには80%のステップ、検証には10%のステップ、テストには10%のステップを使用します。 0.73
The proposed motion tracking is then applied for each step. 提案したモーショントラッキングは各ステップに適用される。 0.79
Beyond segmentation, directly applying raw data to the regression model for motion trajectory faces the difficulty to track absolute coordinates of the ground truth data, which is not reasonable since similar trajectory could occur just with different baseline. セグメント化以外にも、動き軌跡の回帰モデルに生データを直接適用することは、基底真理データの絶対座標を追跡するのが困難である。
訳抜け防止モード: セグメント化を超えて、動き軌跡の回帰モデルに生データを直接適用する 地上の真実データの 絶対座標を追跡できない 同じような軌道は 異なる基準線で起こるので 合理的ではありません
0.87
To avoid such problem, we use the differential value between consecutive samples, as our training and testing data. このような問題を避けるため、連続サンプル間の差分値をトレーニングデータやテストデータとして使用する。 0.80
Thus, a 150-sample-point sensor data will become 149 sample points, and 30-sample-point ground truth will become 29 sample points. これにより、150サンプルのセンサデータが149個のサンプルポイントとなり、30サンプルの地上真実は29個のサンプルポイントとなる。 0.70
Such differential value approach can make the model more robust. このような微分値アプローチは、モデルをより堅牢にすることができる。 0.56
Thus, input sensor data become 6 × 149 ×1 (sensors × time segment size × channel), where 6 for 6-axis sensor data (tri-axis accelerometer, and tri-axis gyroscope) and 149 for data length after preprocessing. これにより、入力センサデータは6×129×1(センサ×時間セグメントサイズ×チャンネル)となり、6軸センサデータ(トリ軸加速度計、トリ軸ジャイロスコープ)6は前処理後のデータ長149となる。 0.85
The ground truth data is 3 × 29, where 3 for three-dimension space axis. 基底真理データは 3 × 29 であり、3次元空間軸は 3 である。 0.85
E. Network Architecture E.ネットワークアーキテクチャ 0.86
Fig. 3 shows the two proposed network architectures based on convolutional layers and fully connected layers. 第3図は、畳み込み層と完全連結層に基づく2つのネットワークアーキテクチャを示している。 0.79
The first one uses a single model to predict (X, Y, Z) positions at the same time, denoted as the fused model. 最初のモデルでは、1つのモデルを使って(X, Y, Z)の位置を同時に予測し、融合モデルと表現する。 0.84
The second one uses three separated models to predict (X, Y, Z) positions respectively, denoted as the independent model. 後者は3つの分離モデルを用いてそれぞれ(X, Y, Z)の位置を予測し、独立モデルと表現する。 0.85
The fused model has shared network layers for (X, Y, Z) predictions, while the independent model can optimize the network tailored for each axis. 融合モデルは (x, y, z) 予測のための共有ネットワーク層を持ち、独立モデルは各軸向けに調整されたネットワークを最適化することができる。 0.80
All these models use the same input sensor data structure and the same network architecture, which includes nine convolutional layers and two fully connected layers. これらのモデルは全て同じ入力センサーデータ構造と同じネットワークアーキテクチャを使用し、9つの畳み込み層と2つの完全に接続された層を含む。 0.77
Table 1 shows the detailed network architectures. 表1は詳細なネットワークアーキテクチャを示している。 0.71
For the convolutional layers we set channel number N1 = 64, N2 = 64, N3 = 128, N4 = 128, N5 = 256, N6 = 256, N7 = 512, N8 = 512 and N9 = 1024, with 3×3 filter size and Rectified Linear Unit (ReLU) as the activation function. 畳み込み層について、チャンネル番号 n1 = 64, n2 = 64, n3 = 128, n4 = 128, n5 = 256, n6 = 256, n7 = 512, n8 = 512, n9 = 1024 を活性化関数として設定する。 0.78
In addition, batch-normalization and max pooling operations are applied after activation function successively. さらに、アクティベーション関数の後にバッチ正規化と最大プーリング操作を順次適用する。 0.75
For max pooling, the filter size is set to 1 × 2 (sensors × time, downsampling only in the time axis) so that we can get wider receptive field along the time axis instead of sensor axis to avoid information loss. 最大プーリングの場合、フィルタのサイズは1×2(センサー×時間、タイム軸のみダウンサンプリング)に設定され、情報損失を避けるためにセンサー軸ではなく、時間軸に沿ってより広い受容磁場を得ることができる。 0.84
In fully connected layers, we set N10 = 1024 and N11 = 512 with ReLU as the activation function. 完全連結層では、活性化関数として N10 = 1024 と N11 = 512 を ReLU で設定する。 0.79
In addition, we apply dropout here to prevent overfitting with a dropout probability, p = 0.5, for each fully connected layer. さらに, 各全連結層に対して, ドロップアウト確率 p = 0.5 のオーバーフィッティングを防止するために, ドロップアウトを適用する。 0.74
For the final output layers, a fully connected layer is used to generate the final tracking data. 最終出力層については、最終追跡データを生成するために完全に接続された層が使用される。 0.70
For the fused model, we will have three output layers for (X, Y, Z) respectively. 融合モデルでは、それぞれ(X, Y, Z)の出力層を3つ持つ。 0.68
For the independent model, each axis will have its own model and output. 独立モデルの場合、各軸は独自のモデルと出力を持つ。 0.81
Page 2 of 4 4ページ中2ページ。 0.66
英語(論文から抽出)日本語訳スコア
————————————————————————————————————– ————————————————————————————————————– 0.08
Volume 2(3) (2017) Article # 第2条(3)(2017年) 第1条 0.48
III. RESULT A. Training III。 結果 A.訓練 0.64
axis The loss function defines the error between predicted output and ground truth. 軸 損失関数は、予測出力と基底真理の間の誤差を定義する。 0.77
For the independent model, we use Root-Mean-SquareErro r (RMSE) as the loss function for each model. 独立モデルでは、各モデルの損失関数としてRoot-Mean-SquareErro r(RMSE)を用いる。 0.85
For the fused model, we combine all the RMSE loss values from each axis with weighted factors to balance between different scales of three axis values. 融合モデルでは、各軸からのRMSE損失値と重み付き因子を組み合わせ、3軸値の異なるスケール間のバランスをとる。 0.80
Loss In this paper, we set the w1=10 and w2 = 10. 本稿では、w1=10とw2=10をセットする。 0.70
We use random subsets of the training dataset (mini-batches), and train the model for 1000 epoches with batch size 100. トレーニングデータセット(ミニバッチ)のランダムサブセットを使用して、バッチサイズ100の1000 epochesのモデルをトレーニングします。 0.69
For optimization, we use the Adam 最適化にはAdamを使用します 0.74
RMSE(X ) optimizer with default setting of β = (0.9,0.999) and ϵ = 1𝑒𝑒−8, set RMSE(X) β = (0.9,0.999) および ε = 1ee−8 のデフォルト設定を持つオプティマイザ 0.53
learning rate to 0.01, and initialize model parameters with random assignments from the normal distribution. 学習率は0.01となり、正規分布からのランダムな割り当てでモデルパラメータを初期化する。 0.73
RMSE(Z ) RMSE(Y ) RMSE(Z) RMSE(Y) 0.41
w 2 w 1 = + × w2 w1 = + × 0.40
+ × The model was implemented with Pytorch, running on Geforce GTX 1080 GPU. + × このモデルはpytorchで実装され、geforce gtx 1080 gpuで動作する。 0.55
For the output, one walking step contains two or three data windows. 出力には、1つのウォーキングステップが2つまたは3つのデータウィンドウを含む。 0.66
Thus, we will concatenate these outputs to rebuild motion trajectory. したがって、これらの出力を結合して運動軌道を再構築する。 0.61
B. Result axis axis Fig. 4 shows the rebuilt trajectory, which is one of testing results in 2D and 3D plots. B.結果 軸 軸 図4は、2Dおよび3Dプロットのテスト結果の1つである再構築軌道を示している。 0.76
The proposed model can effectively track the gait motion based on IMU sensor data. 提案モデルは, imuセンサデータに基づく歩行運動を効果的に追跡することができる。 0.71
Fig. 3 Two different architectures to predict 3-D outputs Table 1. 第3図 3次元出力を予測する2つの異なるアーキテクチャ。 0.72
The detail of both 3-D Fusion model and 3-D Independent model. 3次元融合モデルと3次元独立モデルの両方の詳細。 0.81
Including two architectures. 2つのアーキテクチャを含む。 0.57
9 Layer Conv Layers Conv 9層共振器 層共振器 0.47
Conv BN BN Channel コンブ BN BN チャンネル 0.52
64 64 Channel 64 64 チャンネル 0.54
Conv 5 Layer Conv Layers Conv コンブ 5 層 Conv 層 Conv 層 Conv 0.63
64 BN + MaxPooling 128 BN + MaxPooling 256 BN + MaxPooling 512 BN + MaxPooling 1024 BN + MaxPooling 64 BN + MaxPooling 128 BN + MaxPooling 256 BN + MaxPooling 512 BN + MaxPooling 1024 BN + MaxPooling 0.43
Conv Conv Conv コンブ コンブ コンブ 0.47
Number 1 2 3 番号 1 2 3 0.51
4 5 6 7 4 5 6 7 0.43
8 9 10 11 12 8 9 10 11 12 0.43
Parameter 128 パラメータ 128 0.62
128 256 256 128 256 256 0.42
Conv BN + MaxPooling Conv BN + MaxPooling Conv BN + MaxPooling Conv BN + MaxPooling Conv BN + MaxPooling Conv BN + MaxPooling Conv BN + MaxPooling Flatten Dense+Drop Dense+Drop Conv BN + MaxPooling Conv BN + MaxPooling Conv BN + MaxPooling Conv BN + MaxPooling Conv BN + MaxPooling Conv BN + MaxPooling Flatten Dense + Drop Dense + Drop
訳抜け防止モード: Conv BN + MaxPooling Conv BN + MaxPooling Conv BN + MaxPooling Conv BN + MaxPooling Conv BN + MaxPooling Conv BN + MaxPooling Conv BN +MaxPooling Flatten Dense+Drop Dense+Drop
0.48
512 512 1024 512 512 512 1024 512 0.42
1024 Output 29+29+29 1024 出力 29+29+29 0.47
16,274,711 16,274,711 0.20
Flatten Dense+Drop Dense+Drop 平坦 Dense+Drop Dense+Drop 0.43
Output 1024 512 29 出力 1024 512 29 0.61
17,069,015 17,069,015 0.20
Fig. 4 (a) 2D tracking results 第4図 (a)2次元追跡結果 0.57
(b) 3D tracking results Table 2 shows the error analysis of the fused and independent approaches with five or nine convolutional layers. (b)3d追跡結果 表2は、5層または9層からなる融合および独立アプローチの誤差解析を示しています。 0.82
We also test the effectiveness of proposed data augmentation methods. また,提案手法の有効性を検証した。 0.60
Based on the results, we have the following observations. その結果,以下の結果を得た。 0.52
Table 2 shows that the fused method has lower errors than the independent method for almost every kind of cases. 表2は、ほぼ全てのケースにおいて、融合法は独立法よりも誤差が低いことを示している。
訳抜け防止モード: 表2はそれを示しています 融合法は ほとんど全てのケースで 独立法よりも誤差が低い
0.72
The 3-D fusion model can be regarded as multi-task learning. 3次元融合モデルはマルチタスク学習と見なすことができる。 0.84
With such multi-task networks, we will not only excel at accuracy due to regularization by multi-task learning to reduce the probability of overfitting [16], but also reduce model complexity to one model instead of three models. このようなマルチタスクネットワークでは,マルチタスク学習による正規化によって[16]オーバーフィットの確率が低減されるだけでなく,モデルの複雑さが3モデルではなく1モデルに低減される。 0.84
Page 3 of 4 4ページ中3ページ。 0.65
英語(論文から抽出)日本語訳スコア
Article # Volume 2(3) (2017) 第2巻(3)(2017年) 0.50
————————————————————————————————————– The result also shows that the deeper network has lower error since it can extract better features. 結果————————————————————————————————————————————————————————— さらに、より深いネットワークは、より良い機能を引き出すことができるためエラーが低いことも示している。 0.32
REFERENCES [1] R. N. Kirkwood, B. de Souza Moreira, M. L. D. C. Vallone, S. A. Mingoti, R. C. Dias, and R. F. Sampaio, "Step length appears to be a strong discriminant gait parameter for elderly females highly concerned about falls: a cross-sectional observational study," Physiotherapy, vol. 参考 [1] r. n. kirkwood, b. de souza moreira, m. l. d. c. vallone, s. a. mingoti, r. c. dias, r. f. sampaio, 「ステップの長さは、転倒を懸念する高齢女性にとって、強い差別的な歩行パラメータであるように見える: 横断的観察的研究」 理学療法, vol. 0.58
97, pp. 126-131, June. 97, pp. 126-131, 6月。 0.77
2011. [2] M. E. Morris, R. Iansek, T. A. Matyas, and J. J. Summers, "Stride length regulation in Parkinson's disease: normalization strategies and underlying mechanisms," Brain, vol. 2011. [2] m. e. morris, r. ianek, t. a. matyas, j. j. summers, and "stride length regulation in parkinson's disease: normalization strategies and underlying mechanisms" brain, vol. パーキンソン病におけるストライド長の調節について)。
訳抜け防止モード: 2011. M. E. Morris, R. Iansek, T. A. Matyas, J・J・サマーズ「パーキンソン病におけるストライド長制御 : 正規化戦略とメカニズム」 脳、脳。
0.58
119, pp. 551-568, April. 119, pp. 551-568, April。 0.92
1996. [3] C. H. Chen, “Accelerometer Only Gait Parameter Extraction With All Convolutional Neural Network,” M.S. thesis, Institute of Electronics, National Chiao Tung University, Hsinchu, Taiwan, 2018. 1996. C. H. Chen, “Accelerometer Only Gait Parameter extract with All Convolutional Neural Network”. M.S.thesis, Institute of Electronics, National Chiao Tung University, Hsinchu, Taiwan, 2018.
訳抜け防止モード: 1996. C. H. Chen, “Accelerometer only Gait Parameter extract with all Convolutional Neural Network” M.S.thesis, Institute of Electronics, National Chiao Tung University (英語) 日中、台湾、2018年。
0.61
[4] J. Hannink, T. Kautz, C. F. Pasluosta, K. G. Gaßmann, J. Klucken, and B. M. Eskofier, "Sensor-based gait parameter extraction with deep convolutional neural networks," IEEE journal of biomedical and health informatics, vol. 4] j. hannink, t. kautz, c. f. pasluosta, k. g. gaßmann, j. klucken, b. m. eskofier, "深い畳み込みニューラルネットワークを用いたセンサベースの歩行パラメータ抽出" ieee journal of biomedical and health informatics, vol. 0.82
21, pp. 85-93, Dec. 2016. 21 pp. 85-93, 2016年12月。 0.79
[5] G. Zhao, G. Liu, H. Li, and M. Pietikainen, "3D gait recognition using multiple cameras," in 7th International Conference on Automatic Face and Gesture Recognition (FGR06), Southampton, UK, 2006, pp. 529-534. G. Zhao, G. Liu, H. Li, M. Pietikainen, "3D Gait recognition using multiple camera" in 7th International Conference on Automatic Face and Gesture Recognition (FGR06, Southampton, UK, 2006 pp. 529-534。
訳抜け防止モード: [5]G.Zhao,G.Liu,H.Li, M. Pietikainen「マルチカメラを用いた3D歩行認識」 第7回顔とジェスチャーの自動認識国際会議(FGR06)に参加して サウサンプトン, 2006, pp. 529 - 534。
0.82
[6] R. Urtasun and P. Fua, "3D tracking for gait characterization and recognition," in Sixth IEEE International Conference on Automatic Face and Gesture Recognition, 2004. 第6回IEEE International Conference on Automatic Face and Gesture Recognition, 2004 において, R. Urtasun と P. Fua, “3D tracking for gait Characterization and Recognition” を報告した。 0.87
Proceedings. , Seoul, South Korea, South Korea, 2004, pp. 17-22. 手続きだ ソウル,韓国,韓国,2004,p.17-22。 0.55
[7] Q. Cai and J. K. Aggarwal, "Tracking human motion in structured environments using a distributed-camera system," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 7] q. cai と j. k. aggarwal, "分散カメラシステムを用いた構造化環境におけるヒューマンモーションの追跡",ieee transactions on pattern analysis and machine intelligence, vol。
訳抜け防止モード: [7 ] Q. Cai と J. K. Aggarwal, 分散カメラシステムを用いた構造環境における人間の動きの追跡 IEEE Transactions on Pattern Analysis and Machine Intelligence , vol。
0.91
21, pp. 1241-1247, Nov. 1999. 21p.1241-1247、1999年11月。 0.74
[8] S. L. Dockstader and A. M. Tekalp, "Multiple camera tracking of interacting and occluded human motion," Proceedings of the IEEE, vol. 8]S.L. DockstaderとA.M. Tekalpは,「人間の動きの対話と隠蔽のカメラ追跡が多々行われている」とIEEEの論文で述べている。 0.67
89, pp. 1441-1455, Oct. 89, pp. 1441-1455, Oct。 0.91
2001. [9] S. O. H. Madgwick, A. J. L. Harrison, and R. Vaidyanathan, "Estimation of IMU and MARG orientation using a gradient descent algorithm," in 2011 IEEE international conference on rehabilitation robotics, ETH Zurich Science City, Switzerland, 2011, pp. 1-7. 2001. 9] S. O. H. Madgwick, A. J. L. Harrison, R. Vaidyanathan, “Estimation of IMU and MARG orientation using a gradient descent algorithm” in 2011 IEEE International conference on rehabilitation Roboticss, ETH Zurich Science City, Switzerland, 2011, pp. 1-7。
訳抜け防止モード: 2001. [9]S.O.H.マドウィック、A.J.L.ハリソン R. Vaidyanathan 「勾配降下アルゴリズムによるIMUとMARGの向きの推定」 2011年IEEE国際会議「ETH Zurich Science City」に参加して スイス、2011年、p.1-7。
0.59
[10] Y. S. Suh and S. Park, "Pedestrian inertial navigation with gait phase detection assisted zero velocity updating," in 2009 4th International Conference on Autonomous Robots and Agents, Wellington, New Zealand, 2009, pp. 336-341. 10] y. s. suh and s. park, "pedestrian inertial navigation with gait phase detection assisted zero velocity updates" 2009年、ニュージーランドのウェリントンで開催された第4回自律ロボットとエージェントに関する国際会議。 0.69
[11] G. Ian, B. Yoshua, and C. Aaron, Deep Learning. 11] g. ian、b. yoshua、c. aaron、ディープラーニング。 0.65
Cambridge, MA, USA: The MIT ケンブリッジ, MA, USA: The MIT 0.77
Press, 2016. [12] C. A. Ronao and S. 2016年出版。 [12]C.A.ローナオとS. 0.51
-B. Cho, "Human activity recognition with smartphone sensors using deep learning neural networks," Expert systems with applications, vol. -B。 Cho, “ディープラーニングニューラルネットワークを用いたスマートフォンセンサによるHumanアクティビティ認識”, アプリケーションによるエキスパートシステム, Vol。 0.62
59, pp. 235-244, Oct. 2016. 59, pp。 235-244, 2016年10月。 0.52
[13] O. Dehzangi, M. Taherisadr, and R. ChangalVala, "IMU-based gait recognition using convolutional neural networks and multi-sensor fusion," Sensors, vol. 13] O. Dehzangi, M. Taherisadr, R. ChangalVala, "畳み込みニューラルネットワークとマルチセンサー融合を用いたIMUに基づく歩行認識" Sensors, vol。 0.86
17, p. 2735, Nov. 2017. 17,p.2735,2017年11月。 0.74
[14] S. Bhattacharya and N. D. Lane, "From smart to deep: Robust activity recognition on smartwatches using deep learning," in 2016 IEEE International Conference on Pervasive Computing and Communication Workshops (PerCom Workshops), Sydney, NSW, Australia, 2016, pp. 1-6. 14] s. bhattacharya と n. d. lane, "from smart to deep: robust activity recognition on smartwatchs using deep learning" 2016 ieee international conference on pervasive computing and communication workshops (percom workshops), sydney, nsw, australia, pp. 1-6。
訳抜け防止モード: [14 ]S. Bhattacharya,N.D. Lane,「スマートからディープへ : ディープラーニングを用いたスマートウォッチにおけるロバストなアクティビティ認識」 2016年IEEE International Conference on Pervasive Computing and Communication Workshops (PerCom Workshops) シドニー, NSW, Australia, 2016, pp. 1 - 6。
0.81
[15] Y. S. Liu and K. A. Wen, “High Precision Trajectory Reconstruction for Wearable [15]Y・S・リューとK・A・ウェン「ウェアラブル用高精度軌道再構成」 0.54
System Using Consumer- Grade IMU,” Tech. 消費者級imuを使ったシステムだ”、とtech.comは語る。 0.35
Report. , May. 2018. 報告しろ 2018年5月。 0.56
[16] G. Sistu, I. Leang, and S. Yogamani, "Real-time joint object detection and semantic segmentation network for automated driving," arXiv preprint arXiv:1901.03912, 2019. G. Sistu, I. Leang, and S. Yogamani, "Real-time joint object detection and semantic segmentation network for automated driving", arXiv preprint arXiv:1901.03912, 2019。
訳抜け防止モード: [16 ]G.Sistu,I.Leang,S.Yo gamani 「リアルタイム共同物体検出と自動運転のためのセマンティックセグメンテーションネットワーク」 arXiv preprint arXiv:1901.03912, 2019。
0.84
Table 2 also shows the effectiveness of the two data augmentation methods. 表2は2つのデータ拡張手法の有効性を示す。 0.75
When compared to original design without window based input, window based data augmentations can improve the errors significantly. ウィンドウベース入力のないオリジナルの設計と比較して、ウィンドウベースのデータ拡張はエラーを大幅に改善することができる。 0.66
In which, sliding window has lower accuracy than the random window, which could be due to similar window partitioning between training and testing data in this case. その場合、スライディングウインドウはランダムウインドウよりも精度が低く、この場合、トレーニングとテストデータ間の同様のウインドウパーティショニングに起因する可能性がある。
訳抜け防止モード: その場合、スライディングウィンドウはランダムウィンドウよりも精度が低い。 この場合、トレーニングデータとテストデータの間に、同様のウィンドウパーティショニングがある可能性がある。
0.79
Furthermore, combining the two methods can achieve the lowest errors due to larger training dataset. さらに、この2つの手法を組み合わせることで、より大きなトレーニングデータセットによるエラーが最小となる。 0.62
The differential input approach is necessary for model success, as shown in Table 2. 表2に示すように、差分入力アプローチはモデルの成功に必要である。 0.81
The errors of raw data are much higher than those with differential data. 生データの誤差は、差分データよりもはるかに高い。 0.68
In summary, the proposed approach with 3D fusion network and combined data augmentations can achieve average error of 2.30 cm in X-axis, 0.91 cm in Y-axis and 0.58 cm in Z-axis. 要約すると、3次元融合ネットワークとデータ拡張を組み合わせたアプローチは、X軸の平均誤差が2.30cm、Y軸0.91cm、Z軸0.58cmとなる。 0.73
Above simulations mix steps from all walkers with random step selection for training/validation/ testing. シミュレーションでは、すべての歩行者のステップとランダムなステップ選択を混合してトレーニング/検証/テストを行う。 0.51
For validation purpose, we have also applied a 6-fold cross validation with independent walkers on training set and testing set. また,トレーニングセットとテストセットに対して,独立した歩行器を用いた6倍のクロスバリデーションを適用した。 0.63
In this scenario, 10% of steps from the training set will be the validation set. このシナリオでは、トレーニングセットからのステップの10%が検証セットになります。 0.72
The lowest error of the independent walker test is 7.78±5.31cm, 1.49±1.14cm, 1.03±0.53cm for X, Y, and Z respectively, which is also from the 3D fusion with 9 convolution layers. 独立ウォーカーテストの最低誤差は、それぞれx、y、zの7.78±5.31cm、1.49±1.14cm、1.03±0.53cmである。 0.62
This error is higher than the mixed walker test. この誤差は混合ウォーカーテストよりも高い。 0.64
To close the gap, more training data is desired. ギャップを埋めるためには、より多くのトレーニングデータが必要です。 0.54
Table 2. The result of proposed models on different conditions 表2。 異なる条件におけるモデルの提案結果 0.80
Architecture 3-D Fusion (5 layer Conv) 建築 3次元融合 (5層コンブ) 0.71
3-D Separated (5 layer Conv) 3次元 分離(5層コンブ) 0.49
3-D Fusion (9 layer Conv) 3次元融合 (9層conv) 0.55
3-D Separated (9 layer Conv) 3次元 分離(9層conv) 0.50
X Y Z Dataset X Y Z データセット 0.47
error(cm) error (複数形 errors) 0.53
w/o window sliding random w/oウィンドウ スライディングランダム 0.68
Sliding Random スライディングランダム 0.73
error(cm) error(cm) 6.56±5.91 1.83±1.31 0.34±0.15 4.52±3.90 1.43±1.22 0.89±0.83 5.26±4.43 1.34±1.32 0.89±0.63 random + slide 2.76±2.98 0.80±0.77 0.63±0.55 6.58±4.57 2.39±1.71 0.51±0.30 w/o window 3.11±2.27 1.13±0.85 0.90±0.64 6.34±4.87 1.59±1.24 1.14±1.06 random + slide 3.30±4.90 0.99±0.79 0.72±0.38 w/o window 3.85±3.18 1.64±1.06 0.32±0.18 sliding w/o diff 6.26±5.67 1.80±1.87 1.15±1.17 2.79±2.30 0.96±0.82 0.73±0.72 5.80±5.57 1.44±1.23 0.99±0.95 random + slide 2.30±2.23 0.91±0.95 0.58±0.52 6.05±5.34 1.91±1.68 0.42±0.18 2.46±2.36 0.99±0.88 0.69±0.65 5.92±5.93 1.43±1.37 1.26±1.09 random + slide 2.71±3.00 0.79±0.76 0.65±0.55 error(cm) error(cm) 6.56±5.91 1.83±1.31 0.34±0.15 4.52±3.90 1.43±1.22 0.89±0.83 5.26±4.43 1.34±1.32 0.89±0.63 random + slide 2.76±2.98 0.80±0.77 0.63±0.55 6.58±4.57 2.39±1.71 0.51±0.30 w/o window 3.11±2.27 1.13±0.85 0.90±0.64 6.34±4.87 1.59±1.24 1.14±1.06 random + slide 3.30±4.90 0.99±0.79 0.72±0.38 w/o window 3.85±3.18 1.64±1.06 0.32±0.18 sliding w/o diff 6.26±5.67 1.80±1.87 1.15±1.17 2.79±2.30 0.96±0.82 0.73±0.72 5.80±5.57 1.44±1.23 0.99±0.95 random + slide 2.30±2.23 0.91±0.95 0.58±0.52 6.05±5.34 1.91±1.68 0.42±0.18 2.46±2.36 0.99±0.88 0.69±0.65 5.92±5.93 1.43±1.37 1.26±1.09 random + slide 2.71±3.00 0.79±0.76 0.65±0.55 0.24
sliding random スライディングランダム 0.69
sliding random スライディングランダム 0.69
w/o window IV. w/oウィンドウ IV。 0.54
CONCLUSION This paper has presented a deep gait tracking method on IMU sensor data with convolutional neural network. 結論 本稿では,畳み込みニューラルネットワークを用いたIMUセンサデータに対する深い歩行追跡手法を提案する。 0.65
The proposed approach uses differential and window based input to successfully adapt to different walking conditions. 提案手法は,異なる歩行条件に適応するために,差分およびウィンドウベース入力を用いる。 0.81
Model performance are further improved with data augmentation methods, sliding and random window samplings. データ拡張、スライディング、ランダムウィンドウサンプリングにより、モデル性能がさらに向上する。 0.69
The final 3D fused model enables lower complexity while achieves average error of 2.30 cm in X-axis, 0.91 cm in Y-axis and 0.58 cm in Z-axis. 最終3D融合モデルでは、X軸の平均誤差は2.30cm、Y軸は0.91cm、Z軸は0.58cmとなる。 0.71
Page 4 of 4 4ページ目。 0.63
         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。