論文の概要: Temporal Action Localization for Inertial-based Human Activity
Recognition
- arxiv url: http://arxiv.org/abs/2311.15831v1
- Date: Mon, 27 Nov 2023 13:55:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 15:05:41.648741
- Title: Temporal Action Localization for Inertial-based Human Activity
Recognition
- Title(参考訳): 慣性に基づく人間活動認識のための時間的行動定位
- Authors: Marius Bock, Michael Moeller, Kristof Van Laerhoven
- Abstract要約: 本稿では,ウェアラブル型ヒューマンアクティビティ・リコンジション(HAR)における最先端のTALモデルの適用性を体系的に実証した最初の例である。
以上の結果から,現在最先端のTALモデルは,6つのウェアラブルアクティビティ認識ベンチマークデータセットのうち4つにおいて,一般的な慣性モデルより優れています。
- 参考スコア(独自算出の注目度): 11.181480605664438
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: A persistent trend in Deep Learning has been the applicability of machine
learning concepts to other areas than originally introduced for. As of today,
state-of-the-art activity recognition from wearable sensors relies on
classifiers being trained on fixed windows of data. Contrarily, video-based
Human Activity Recognition has followed a segment-based prediction approach,
localizing activity occurrences from start to end. This paper is the first to
systematically demonstrate the applicability of state-of-the-art TAL models for
wearable Human Activity Recongition (HAR) using raw inertial data as input. Our
results show that state-of-the-art TAL models are able to outperform popular
inertial models on 4 out of 6 wearable activity recognition benchmark datasets,
with improvements ranging as much as 25% in F1-score. Introducing the TAL
community's most popular metric to inertial-based HAR, namely mean Average
Precision, our analysis shows that TAL models are able to produce more coherent
segments along with an overall higher NULL-class accuracy across all datasets.
Being the first to provide such an analysis, the TAL community offers an
interesting new perspective to inertial-based HAR with yet to be explored
design choices and training concepts, which could be of significant value for
the inertial-based HAR community.
- Abstract(参考訳): ディープラーニングにおける永続的な傾向は、もともと導入されていた他の分野への機械学習の概念の適用性である。
今日では、ウェアラブルセンサーによる最先端のアクティビティ認識は、データの固定ウィンドウで訓練される分類器に依存している。
ビデオベースのヒューマンアクティビティ認識は、開始から終了までのアクティビティをローカライズするセグメントベースの予測アプローチに従っている。
本稿では,生慣性データを入力として用いたウェアラブルヒューマンアクティビティ・リコンジション(HAR)における最先端のTALモデルの適用性を,初めて体系的に実証した。
その結果、最先端のtalモデルは6つのウェアラブルアクティビティ認識ベンチマークデータセットのうち4つで一般的な慣性モデルよりも優れており、f1-scoreでは最大25%の改善が見られた。
talコミュニティで最もポピュラーなメトリックである平均精度(平均精度)を導入することで、talモデルがすべてのデータセットにまたがる全体的なnullクラス精度とともに、よりコヒーレントなセグメントを生成できることが分かりました。
このような分析を最初に提供したTALコミュニティは、慣性ベースのHARに対して興味深い新たな視点を提供し、設計選択やトレーニングの概念はまだ検討されていないが、慣性ベースのHARコミュニティにとって重要な価値を持つ可能性がある。
関連論文リスト
- DyG-Mamba: Continuous State Space Modeling on Dynamic Graphs [59.434893231950205]
動的グラフ学習は、現実世界のシステムにおける進化の法則を明らかにすることを目的としている。
動的グラフ学習のための新しい連続状態空間モデルDyG-Mambaを提案する。
我々はDyG-Mambaがほとんどのデータセットで最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-08-13T15:21:46Z) - Generative Active Learning for Long-tailed Instance Segmentation [55.66158205855948]
キャッシュ勾配に基づいて生成したデータの寄与を推定する新しいアルゴリズムであるBSGALを提案する。
実験により,BSGALはベースラインアプローチより優れ,長い尾のセグメンテーションの性能が効果的に向上することが示された。
論文 参考訳(メタデータ) (2024-06-04T15:57:43Z) - HARMamba: Efficient and Lightweight Wearable Sensor Human Activity Recognition Based on Bidirectional Mamba [7.412537185607976]
ウェアラブルセンサーによる人間の活動認識(HAR)は、活動知覚において重要な研究領域である。
HARMambaは、選択的な双方向状態空間モデルとハードウェア対応設計を組み合わせた、革新的な軽量で多用途なHARアーキテクチャである。
HarMambaは現代の最先端フレームワークより優れており、計算とメモリの要求を大幅に削減し、同等またはより良い精度を提供する。
論文 参考訳(メタデータ) (2024-03-29T13:57:46Z) - Towards Learning Discrete Representations via Self-Supervision for
Wearables-Based Human Activity Recognition [7.086647707011785]
ウェアラブルコンピューティングにおけるヒューマンアクティビティ認識(HAR)は、通常、センサーデータの直接処理に基づいている。
ウェアラブルアプリケーションへのベクトル量子化(VQ)の最近の進歩により、センサデータの短いスパンとベクトルのコードブックのマッピングを直接学習できるようになりました。
この研究は、離散表現がいかに効果的に導出できるかを示すための概念実証を示す。
論文 参考訳(メタデータ) (2023-06-01T19:49:43Z) - Human Activity Recognition Using Self-Supervised Representations of
Wearable Data [0.0]
HAR(Human Activity Recognition)のための正確なアルゴリズムの開発は、大規模な実世界のラベル付きデータセットの欠如によって妨げられている。
ここでは、トレーニング中に見えない実世界のデータセットで評価した場合、高い性能を有する6クラスHARモデルを開発する。
論文 参考訳(メタデータ) (2023-04-26T07:33:54Z) - Reinforcement Learning from Passive Data via Latent Intentions [86.4969514480008]
我々は、下流RLを加速する機能を学ぶために、受動的データが引き続き使用できることを示す。
我々のアプローチは、意図をモデル化することで受動的データから学習する。
実験では、クロス・エボディメント・ビデオデータやYouTubeビデオなど、さまざまな形式の受動的データから学習できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:59:05Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Beyond the Gates of Euclidean Space: Temporal-Discrimination-Fusions and
Attention-based Graph Neural Network for Human Activity Recognition [5.600003119721707]
ウェアラブルデバイスによるヒューマンアクティビティ認識(HAR)は、フィットネストラッキング、ウェルネススクリーニング、生活支援など多くの応用により、大きな関心を集めている。
従来のディープラーニング(DL)は、HARドメインのアートパフォーマンスの状態を規定している。
提案手法はグラフニューラルネットワーク(GNN)を用いて,入力表現を構造化し,サンプル間の関係性を利用する手法である。
論文 参考訳(メタデータ) (2022-06-10T03:04:23Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。