論文の概要: Decoding Human Activities: Analyzing Wearable Accelerometer and
Gyroscope Data for Activity Recognition
- arxiv url: http://arxiv.org/abs/2310.02011v1
- Date: Tue, 3 Oct 2023 12:34:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 14:32:21.386790
- Title: Decoding Human Activities: Analyzing Wearable Accelerometer and
Gyroscope Data for Activity Recognition
- Title(参考訳): 人間の活動のデコード:活動認識のためのウェアラブル加速度計とジャイロスコープデータの解析
- Authors: Utsab Saha, Sawradip Saha, Tahmid Kabir, Shaikh Anowarul Fattah,
Mohammad Saquib
- Abstract要約: 提案手法では,静的アクティビティと動的アクティビティを別々に分類するために,慎重に設計されたResidualブロックを使用する。
提案手法は、UCI HARとMotion-Senseのデータセットでそれぞれ96.71%と95.35%の最先端の精度を達成する。
- 参考スコア(独自算出の注目度): 1.3549498237473223
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A person's movement or relative positioning effectively generates raw
electrical signals that can be read by computing machines to apply various
manipulative techniques for the classification of different human activities.
In this paper, a stratified multi-structural approach based on a Residual
network ensembled with Residual MobileNet is proposed, termed as FusionActNet.
The proposed method involves using carefully designed Residual blocks for
classifying the static and dynamic activities separately because they have
clear and distinct characteristics that set them apart. These networks are
trained independently, resulting in two specialized and highly accurate models.
These models excel at recognizing activities within a specific superclass by
taking advantage of the unique algorithmic benefits of architectural
adjustments. Afterward, these two ResNets are passed through a weighted
ensemble-based Residual MobileNet. Subsequently, this ensemble proficiently
discriminates between a specific static and a specific dynamic activity, which
were previously identified based on their distinct feature characteristics in
the earlier stage. The proposed model is evaluated using two publicly
accessible datasets; namely, UCI HAR and Motion-Sense. Therein, it successfully
handled the highly confusing cases of data overlap. Therefore, the proposed
approach achieves a state-of-the-art accuracy of 96.71% and 95.35% in the UCI
HAR and Motion-Sense datasets respectively.
- Abstract(参考訳): 人の動きや相対的な位置決めは、コンピュータによって読み取れる生の電気信号を効果的に生成し、異なる人間の活動の分類に様々なマニピュレータ技術を適用する。
本稿では,Residual MobileNetを組み込んだResidualネットワークに基づく階層型マルチ構造アプローチについて,FusionActNetと呼ぶ。
提案手法では,静的なアクティビティと動的アクティビティを個別に分類するために,慎重に設計されたResidualブロックを使用する。
これらのネットワークは独立して訓練され、2つの専門的かつ高精度なモデルが得られる。
これらのモデルは、アーキテクチャ調整のユニークなアルゴリズム的利点を生かして、特定のスーパークラス内での活動を認識するのに優れている。
その後、これら2つのResNetは、重み付けされたアンサンブルベースのResidual MobileNetを介して転送される。
その後、このアンサンブルは、前段階の異なる特徴特性に基づいて以前同定された特定の静的活動と特定の動的活動とを適切に識別する。
提案モデルは、UCI HARとMotion-Senseの2つの公開データセットを用いて評価される。
これにより、データ重複の非常に紛らわしいケースをうまく処理した。
そこで,提案手法では,uci harデータセットとモーションセンスデータセットで96.71%,95.35%の精度を実現している。
関連論文リスト
- Consistency Based Weakly Self-Supervised Learning for Human Activity Recognition with Wearables [1.565361244756411]
センサデータから人間の活動を認識するための弱自己教師型アプローチについて述べる。
提案手法は, クラスタリングアルゴリズムが, 基礎となる人間の行動を特定し, 分類する上で, 同等のパフォーマンスを達成するのに有効であることを示す。
論文 参考訳(メタデータ) (2024-07-29T06:29:21Z) - Efficient Transferability Assessment for Selection of Pre-trained Detectors [63.21514888618542]
本稿では,事前学習対象検出器の効率的な伝達性評価について検討する。
我々は、事前訓練された検出器の大規模で多様な動物園を含む検出器転送性ベンチマークを構築した。
実験により,本手法は伝達性の評価において,他の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-03-14T14:23:23Z) - A Real-time Human Pose Estimation Approach for Optimal Sensor Placement
in Sensor-based Human Activity Recognition [63.26015736148707]
本稿では,人間の行動認識に最適なセンサ配置の課題を解決するための新しい手法を提案する。
得られた骨格データは、最適なセンサ位置を特定するためのユニークな戦略を提供する。
本研究は,センサ配置の視覚的手法が従来のディープラーニング手法と同等の結果をもたらすことを示唆している。
論文 参考訳(メタデータ) (2023-07-06T10:38:14Z) - Self-Supervised Human Activity Recognition with Localized Time-Frequency
Contrastive Representation Learning [16.457778420360537]
スマートフォン加速度計データを用いた人間行動認識のための自己教師付き学習ソリューションを提案する。
加速度計信号から強い表現を学習し,クラスラベルへの依存度を低減させるモデルを開発した。
提案手法の性能をMotionSense, HAPT, HHARの3つのデータセットで評価した。
論文 参考訳(メタデータ) (2022-08-26T22:47:18Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Gradient-Based Trajectory Optimization With Learned Dynamics [80.41791191022139]
データからシステムの微分可能なダイナミクスモデルを学習するために、機械学習技術を使用します。
ニューラルネットワークは、大規模な時間的地平線に対して、非常に非線形な振る舞いを正確にモデル化できることが示される。
ハードウェア実験において、学習したモデルがSpotとRadio- controlled (RC)の両方の複雑な力学を表現できることを実証した。
論文 参考訳(メタデータ) (2022-04-09T22:07:34Z) - Non-local Graph Convolutional Network for joint Activity Recognition and
Motion Prediction [2.580765958706854]
3次元骨格に基づく運動予測と行動認識は、人間の行動分析における2つの中間課題である。
本稿では, グラフ畳み込みニューラルネットワークとリカレントニューラルネットワークを併用した, 共同動作予測と活動認識のための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-03T14:07:10Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - One to Many: Adaptive Instrument Segmentation via Meta Learning and
Dynamic Online Adaptation in Robotic Surgical Video [71.43912903508765]
MDALは、ロボット支援手術における機器セグメンテーションのための動的オンライン適応学習スキームです。
ビデオ固有のメタ学習パラダイムを通じて、楽器の一般的な知識と高速適応能力を学ぶ。
2つのデータセットで他の最先端のメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-03-24T05:02:18Z) - Self-supervised Human Activity Recognition by Learning to Predict
Cross-Dimensional Motion [16.457778420360537]
スマートフォン加速度計データを用いた人間行動認識のための自己教師型学習法を提案する。
まず、ラベルなし入力信号の表現は、深層畳み込みニューラルネットワークを訓練して加速度計値のセグメントを予測することによって学習される。
このタスクでは、凍結ネットワークの端に多数の完全に接続されたレイヤを追加し、ラベル付き加速度センサ信号で付加されたレイヤをトレーニングし、人間の活動の分類を学ぶ。
論文 参考訳(メタデータ) (2020-10-21T02:14:31Z) - Entropy Decision Fusion for Smartphone Sensor based Human Activity
Recognition [0.0]
本稿では,畳み込みニューラルネットワーク,再帰畳み込みネットワーク,ベクトルマシンをコンピュータで支援するためのアプローチを提案する。
UCI-HARとWISDMの2つのベンチマークデータセットで実験が行われた。
論文 参考訳(メタデータ) (2020-05-30T21:09:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。