論文の概要: Simple Yet Surprisingly Effective Training Strategies for LSTMs in
Sensor-Based Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2212.13918v1
- Date: Fri, 23 Dec 2022 09:17:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 14:16:51.704577
- Title: Simple Yet Surprisingly Effective Training Strategies for LSTMs in
Sensor-Based Human Activity Recognition
- Title(参考訳): センサによる人間活動認識におけるLSTMの簡易かつ驚くほど効果的な訓練方法
- Authors: Shuai Shao, Yu Guan, Xin Guan, Paolo Missier, Thomas Ploetz
- Abstract要約: 本稿では,散発的活動認識のためのLSTMトレーニング戦略について検討する。
2つのSARシナリオに対して2つの単純かつ効果的なLSTM変種(遅延モデルと逆モデル)を提案する。
有望な結果は、HARアプリケーションにおける我々のアプローチの有効性を示した。
- 参考スコア(独自算出の注目度): 14.95985947077388
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human Activity Recognition (HAR) is one of the core research areas in mobile
and wearable computing. With the application of deep learning (DL) techniques
such as CNN, recognizing periodic or static activities (e.g, walking, lying,
cycling, etc.) has become a well studied problem. What remains a major
challenge though is the sporadic activity recognition (SAR) problem, where
activities of interest tend to be non periodic, and occur less frequently when
compared with the often large amount of irrelevant background activities.
Recent works suggested that sequential DL models (such as LSTMs) have great
potential for modeling nonperiodic behaviours, and in this paper we studied
some LSTM training strategies for SAR. Specifically, we proposed two simple yet
effective LSTM variants, namely delay model and inverse model, for two SAR
scenarios (with and without time critical requirement). For time critical SAR,
the delay model can effectively exploit predefined delay intervals (within
tolerance) in form of contextual information for improved performance. For
regular SAR task, the second proposed, inverse model can learn patterns from
the time series in an inverse manner, which can be complementary to the forward
model (i.e.,LSTM), and combining both can boost the performance. These two LSTM
variants are very practical, and they can be deemed as training strategies
without alteration of the LSTM fundamentals. We also studied some additional
LSTM training strategies, which can further improve the accuracy. We evaluated
our models on two SAR and one non-SAR datasets, and the promising results
demonstrated the effectiveness of our approaches in HAR applications.
- Abstract(参考訳): HAR(Human Activity Recognition)は、モバイルおよびウェアラブルコンピューティングにおける中核研究分野の一つである。
CNNのようなディープラーニング(DL)技術の適用により、周期的あるいは静的な活動(歩行、嘘、サイクリングなど)を認識することが、よく研究されている問題となっている。
しかし、依然として大きな課題は散発的活動認識(sar)の問題であり、興味のある活動は周期的ではなく、しばしば大量の無関係な背景活動と比較した場合に発生する頻度が低くなる。
近年の研究では,非周期的な振る舞いをモデル化するための逐次DLモデル(LSTMなど)が大きな可能性を示唆し,SARのためのLSTMトレーニング戦略について検討した。
具体的には,2つのSARシナリオに対して,遅延モデルと逆モデルという2つの単純かつ効果的なLSTM変種を提案する。
時間クリティカルなSARのために、遅延モデルは、事前に定義された遅延間隔を文脈情報として効果的に利用し、性能を向上させる。
通常のSARタスクでは,2番目の逆モデルでは時系列からパターンを逆の方法で学習することが可能で,前向きモデル(LSTM)と相補的であり,両者を組み合わせることで性能が向上する。
これら2つのLSTM変種は非常に実用的であり、LSTM基本を変更せずに訓練戦略とみなすことができる。
また,さらに精度を向上させるためのlstmトレーニング戦略についても検討した。
我々は,2つのSARデータセットと1つの非SARデータセットを用いてモデル評価を行い,提案手法の有効性を実証した。
関連論文リスト
- Unlocking the Power of LSTM for Long Term Time Series Forecasting [27.245021350821638]
本稿では, sLSTM 上に実装したP-sLSTM という単純なアルゴリズムを提案する。
これらの改良により、TSFにおけるsLSTMの性能が大幅に向上し、最先端の結果が得られた。
論文 参考訳(メタデータ) (2024-08-19T13:59:26Z) - Enhancing Sequential Model Performance with Squared Sigmoid TanH (SST)
Activation Under Data Constraints [0.0]
本研究では,データ制約下での逐次モデルの学習能力を高めるために,SST(Sigmoid TanH)アクティベーションの2乗化を提案する。
SSTは、信号が時間とともに伝播するにつれて、強い活性化と弱い活性化の差を増幅するために数学的なスクアリングを適用している。
我々は,手話認識,回帰,時系列分類タスクなどの多様なアプリケーションに対して,SSTを利用したLSTMとGRUを評価した。
論文 参考訳(メタデータ) (2024-02-14T09:20:13Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Learning Objective-Specific Active Learning Strategies with Attentive
Neural Processes [72.75421975804132]
学び アクティブラーニング(LAL)は、アクティブラーニング戦略自体を学ぶことを提案し、与えられた設定に適応できるようにする。
能動学習問題の対称性と独立性を利用した新しい分類法を提案する。
私たちのアプローチは、筋電図から学ぶことに基づいており、モデルに標準ではない目的に適応する能力を与えます。
論文 参考訳(メタデータ) (2023-09-11T14:16:37Z) - Can recurrent neural networks learn process model structure? [0.2580765958706854]
本稿では,適合度,精度,一般化のために,変分に基づく再サンプリングとカスタムメトリクスを組み合わせた評価フレームワークを提案する。
LSTMは、単純化されたプロセスデータであっても、プロセスモデル構造を学ぶのに苦労する可能性があることを確認します。
また,トレーニング中にLSTMで見られる情報量が減少すると,一般化や精度の低下が生じた。
論文 参考訳(メタデータ) (2022-12-13T08:40:01Z) - Learning Mixtures of Linear Dynamical Systems [94.49754087817931]
そこで我々は,2段階のメタアルゴリズムを開発し,各基底構造LPSモデルを誤り$tildeO(sqrtd/T)$.sqrtd/T)まで効率的に復元する。
提案手法の有効性を検証し,数値実験による理論的研究を検証する。
論文 参考訳(メタデータ) (2022-01-26T22:26:01Z) - A journey in ESN and LSTM visualisations on a language task [77.34726150561087]
我々は,CSL(Cross-Situationnal Learning)タスクでESNとLSTMを訓練した。
その結果, 性能比較, 内部力学解析, 潜伏空間の可視化の3種類が得られた。
論文 参考訳(メタデータ) (2020-12-03T08:32:01Z) - Object Tracking through Residual and Dense LSTMs [67.98948222599849]
LSTM(Long Short-Term Memory)リカレントニューラルネットワークに基づくディープラーニングベースのトラッカーが、強力な代替手段として登場した。
DenseLSTMはResidualおよびRegular LSTMより優れ、ニュアンセに対する高いレジリエンスを提供する。
ケーススタディは、他のトラッカーの堅牢性を高めるために残差ベースRNNの採用を支援する。
論文 参考訳(メタデータ) (2020-06-22T08:20:17Z) - Achieving Online Regression Performance of LSTMs with Simple RNNs [0.0]
本稿では,パラメータ数に線形時間を要する1次学習アルゴリズムを提案する。
SRNNが我々のアルゴリズムでトレーニングされている場合、LSTMと非常によく似た回帰性能を2~3倍の短いトレーニング時間で提供することを示す。
論文 参考訳(メタデータ) (2020-05-16T11:41:13Z) - Sentiment Analysis Using Simplified Long Short-term Memory Recurrent
Neural Networks [1.5146765382501612]
GOPディベートTwitterデータセット上で感情分析を行う。
学習を高速化し、計算コストと時間を短縮するために、LSTMモデルのスリムバージョンを6つの異なるパラメータで削減する手法を提案する。
論文 参考訳(メタデータ) (2020-05-08T12:50:10Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。