論文の概要: Beyond Isolated Frames: Enhancing Sensor-Based Human Activity Recognition through Intra- and Inter-Frame Attention
- arxiv url: http://arxiv.org/abs/2405.19349v1
- Date: Tue, 21 May 2024 14:02:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-02 14:20:20.406348
- Title: Beyond Isolated Frames: Enhancing Sensor-Based Human Activity Recognition through Intra- and Inter-Frame Attention
- Title(参考訳): 孤立フレームを超えて:フレーム内およびフレーム間注意によるセンサベース人間活動認識の強化
- Authors: Shuai Shao, Yu Guan, Victor Sanchez,
- Abstract要約: HAR(Human Activity Recognition)は、医療やスポーツなどの分野でウェアラブルセンサーの人気が高まり、ユビキタスコンピューティングで人気が高まっている。
本研究では,各フレーム内のニュアンスと,複数のフレーム間のより広いコンテキスト関係をキャプチャするフレーム内およびフレーム間アテンションモデルを提案する。
本稿では,時系列データの時系列を各バッチ内に保存する新しい時系列バッチ学習戦略を提案する。
- 参考スコア(独自算出の注目度): 24.641665755586263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human Activity Recognition (HAR) has become increasingly popular with ubiquitous computing, driven by the popularity of wearable sensors in fields like healthcare and sports. While Convolutional Neural Networks (ConvNets) have significantly contributed to HAR, they often adopt a frame-by-frame analysis, concentrating on individual frames and potentially overlooking the broader temporal dynamics inherent in human activities. To address this, we propose the intra- and inter-frame attention model. This model captures both the nuances within individual frames and the broader contextual relationships across multiple frames, offering a comprehensive perspective on sequential data. We further enrich the temporal understanding by proposing a novel time-sequential batch learning strategy. This learning strategy preserves the chronological sequence of time-series data within each batch, ensuring the continuity and integrity of temporal patterns in sensor-based HAR.
- Abstract(参考訳): HAR(Human Activity Recognition)は、医療やスポーツなどの分野でウェアラブルセンサーの人気が高まり、ユビキタスコンピューティングで人気が高まっている。
畳み込みニューラルネットワーク(ConvNets)はHARに大きく貢献しているが、それらはフレーム単位の分析を採用し、個々のフレームに集中し、人間の活動に固有のより広い時間的ダイナミクスを見渡す可能性がある。
そこで本研究では,フレーム内およびフレーム間アテンションモデルを提案する。
このモデルは、個々のフレーム内のニュアンスと、複数のフレームにわたるより広いコンテキスト関係の両方をキャプチャし、シーケンシャルデータに対する包括的な視点を提供する。
我々は、新しい時系列バッチ学習戦略を提案することにより、時間的理解をさらに強化する。
この学習戦略は、各バッチ内の時系列データの時系列を保存し、センサベースのHARにおける時間パターンの連続性と整合性を保証する。
関連論文リスト
- TimeGraphs: Graph-based Temporal Reasoning [64.18083371645956]
TimeGraphsは階層的時間グラフとして動的相互作用を特徴付ける新しいアプローチである。
提案手法は,コンパクトなグラフベース表現を用いて相互作用をモデル化し,多種多様な時間スケールでの適応推論を可能にする。
我々は,サッカーシミュレータ,抵抗ゲーム,MOMA人間活動データセットなど,複雑でダイナミックなエージェントインタラクションを持つ複数のデータセット上でTimeGraphsを評価する。
論文 参考訳(メタデータ) (2024-01-06T06:26:49Z) - Multi-perspective Feedback-attention Coupling Model for Continuous-time Dynamic Graphs [6.885740709406325]
本稿では,MPFA(Multi-Perspective Feedback-Attention Coupling)モデルを提案する。
MPFAは進化と生の両方の観点から情報を取り入れ、観察されたプロセスのインターリーブされたダイナミクスを効率的に学習する。
自己組織型データセットと7つの公開データセットの実験結果から,提案モデルの有効性と競争性を検証した。
論文 参考訳(メタデータ) (2023-12-13T08:57:15Z) - Spatial-Temporal Knowledge-Embedded Transformer for Video Scene Graph
Generation [64.85974098314344]
映像シーングラフ生成(VidSGG)は、映像シーン内の物体を特定し、その映像との関係を推測することを目的としている。
因みに、オブジェクトペアとその関係は、各画像内の空間的共起相関と、異なる画像間の時間的一貫性/遷移相関を享受する。
本稿では,従来の空間的時間的知識をマルチヘッド・クロスアテンション機構に組み込んだ時空間的知識埋め込み型トランス (STKET) を提案する。
論文 参考訳(メタデータ) (2023-09-23T02:40:28Z) - Spatio-Temporal Branching for Motion Prediction using Motion Increments [55.68088298632865]
HMP(Human Motion Prediction)はその多種多様な応用により、人気のある研究トピックとして浮上している。
従来の手法は手作りの機能と機械学習技術に依存している。
HMPのためのインクリメンタル情報を用いた時空間分岐ネットワークを提案する。
論文 参考訳(メタデータ) (2023-08-02T12:04:28Z) - Coupled Attention Networks for Multivariate Time Series Anomaly
Detection [10.620044922371177]
多変量時系列データにおける異常検出のためのアテンションベースニューラルネットワークフレームワーク(CAN)を提案する。
センサ間の関係と時間的依存関係をキャプチャするために、グローバルローカルグラフに基づく畳み込みニューラルネットワークを時間的自己認識モジュールに統合する。
論文 参考訳(メタデータ) (2023-06-12T13:42:56Z) - A Spatio-Temporal Multilayer Perceptron for Gesture Recognition [70.34489104710366]
自律走行車におけるジェスチャー認識のための多層状態重み付きパーセプトロンを提案する。
提案手法の有望な性能を示すため,TCGおよびDrive&Actデータセットの評価を行った。
私たちは、そのリアルタイム能力と安定した実行を示すために、モデルを自動運転車にデプロイします。
論文 参考訳(メタデータ) (2022-04-25T08:42:47Z) - Efficient Modelling Across Time of Human Actions and Interactions [92.39082696657874]
3つの畳み込みニューラルネットワーク(CNND)における現在の固定サイズの時間的カーネルは、入力の時間的変動に対処するために改善できると主張している。
我々は、アーキテクチャの異なるレイヤにまたがる機能の違いを強化することで、アクションのクラス間でどのようにうまく対処できるかを研究する。
提案手法は、いくつかのベンチマークアクション認識データセットで評価され、競合する結果を示す。
論文 参考訳(メタデータ) (2021-10-05T15:39:11Z) - A Tree-structure Convolutional Neural Network for Temporal Features
Exaction on Sensor-based Multi-resident Activity Recognition [4.619245607612873]
マルチレジデント活動認識(TSC-MRAR)のためのエンドツーエンド木構造畳み込みニューラルネットワークフレームワークを提案する。
まず、各サンプルをイベントとして扱い、スライディングウインドウに過去のセンサの読み取りを埋め込んだ現在のイベントを得る。
そして、時間的特徴を自動的に生成するために、木構造ネットワークを設計し、近くの読み物の時間的依存を導出する。
論文 参考訳(メタデータ) (2020-11-05T14:31:00Z) - DanHAR: Dual Attention Network For Multimodal Human Activity Recognition
Using Wearable Sensors [9.492607098644536]
チャネルアテンションと時間アテンションを混合するフレームワークをCNNに導入するDanHARと呼ばれる新しいデュアルアテンション手法を提案する。
DanHARはパラメータの無視可能なオーバーヘッドで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-06-25T14:17:33Z) - Deep ConvLSTM with self-attention for human activity decoding using
wearables [0.0]
本稿では,複数のセンサ時系列データの特徴を捉えつつ,重要な時間点を選択するディープニューラルネットワークアーキテクチャを提案する。
提案手法の有効性を,異なるデータサンプリング戦略にまたがって示すとともに,自己認識機構が大幅に改善したことを示す。
提案手法は、複数の身体センサからの人間の活動のより優れた復号化を、長期間にわたって行うことができる。
論文 参考訳(メタデータ) (2020-05-02T04:30:31Z) - Co-Saliency Spatio-Temporal Interaction Network for Person
Re-Identification in Videos [85.6430597108455]
本稿では,ビデオにおける人物の身元確認のためのCSTNet(Co-Saliency Spatio-Temporal Interaction Network)を提案する。
ビデオフレーム間の共通した有意な前景領域をキャプチャし、そのような領域からの空間的時間的長距離コンテキストの相互依存性を探索する。
CSTNet内の複数の空間的時間的相互作用モジュールを提案し,その特徴と空間的時間的情報相関の空間的・時間的長期的相互依存性を利用した。
論文 参考訳(メタデータ) (2020-04-10T10:23:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。