論文の概要: A Tree-structure Convolutional Neural Network for Temporal Features
Exaction on Sensor-based Multi-resident Activity Recognition
- arxiv url: http://arxiv.org/abs/2011.03042v1
- Date: Thu, 5 Nov 2020 14:31:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 12:16:38.493624
- Title: A Tree-structure Convolutional Neural Network for Temporal Features
Exaction on Sensor-based Multi-resident Activity Recognition
- Title(参考訳): センサベースマルチレジデントアクティビティ認識における時間的特徴の完全化のための木構造畳み込みニューラルネットワーク
- Authors: Jingjing Cao, Fukang Guo, Xin Lai, Qiang Zhou, Jinshan Dai
- Abstract要約: マルチレジデント活動認識(TSC-MRAR)のためのエンドツーエンド木構造畳み込みニューラルネットワークフレームワークを提案する。
まず、各サンプルをイベントとして扱い、スライディングウインドウに過去のセンサの読み取りを埋め込んだ現在のイベントを得る。
そして、時間的特徴を自動的に生成するために、木構造ネットワークを設計し、近くの読み物の時間的依存を導出する。
- 参考スコア(独自算出の注目度): 4.619245607612873
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the propagation of sensor devices applied in smart home, activity
recognition has ignited huge interest and most existing works assume that there
is only one habitant. While in reality, there are generally multiple residents
at home, which brings greater challenge to recognize activities. In addition,
many conventional approaches rely on manual time series data segmentation
ignoring the inherent characteristics of events and their heuristic
hand-crafted feature generation algorithms are difficult to exploit distinctive
features to accurately classify different activities. To address these issues,
we propose an end-to-end Tree-Structure Convolutional neural network based
framework for Multi-Resident Activity Recognition (TSC-MRAR). First, we treat
each sample as an event and obtain the current event embedding through the
previous sensor readings in the sliding window without splitting the time
series data. Then, in order to automatically generate the temporal features, a
tree-structure network is designed to derive the temporal dependence of nearby
readings. The extracted features are fed into the fully connected layer, which
can jointly learn the residents labels and the activity labels simultaneously.
Finally, experiments on CASAS datasets demonstrate the high performance in
multi-resident activity recognition of our model compared to state-of-the-art
techniques.
- Abstract(参考訳): スマートホームでセンサーデバイスが普及するにつれ、アクティビティ認識は大きな関心を集めており、既存の作品の多くは1人しか住んでいないと仮定している。
実際には、家庭には複数の住民がいるため、活動を認識することが大きな課題となる。
さらに,イベントの固有特性やヒューリスティックな手作り特徴生成アルゴリズムを無視する手作業時系列データセグメンテーションにも依存する従来の手法では,特徴を生かして異なるアクティビティを正確に分類することは困難である。
これらの課題に対処するために,マルチレジデントアクティビティ認識(TSC-MRAR)のためのエンドツーエンドのツリー構造畳み込みニューラルネットワークフレームワークを提案する。
まず、各サンプルをイベントとして扱い、時系列データを分割することなく、スライディングウインドウに先行するセンサ読み取りを通じて現在のイベントを埋め込みます。
そして、時間的特徴を自動的に生成するために、木構造ネットワークを設計し、近くの読み物の時間的依存を導出する。
抽出された特徴は完全連結層に供給され、住民ラベルとアクティビティラベルを同時に学習することができる。
最後に,casasデータセットを用いた実験により,最先端技術と比較して,マルチレジデント行動認識における高い性能を示す。
関連論文リスト
- A Multi-Task Deep Learning Approach for Sensor-based Human Activity
Recognition and Segmentation [4.987833356397567]
本稿では,この2つの課題を同時に解くために,新しいディープニューラルネットワークを提案する。
提案するネットワークは,選択的畳み込みを採用し,長時間ないし短時間の動作を分割するマルチスケールウィンドウを備えている。
提案手法は,アクティビティ認識とセグメンテーションの両方において,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2023-03-20T13:34:28Z) - UMSNet: An Universal Multi-sensor Network for Human Activity Recognition [10.952666953066542]
本稿では,人間行動認識のためのユニバーサルマルチセンサネットワーク(UMSNet)を提案する。
特に,新しい軽量センサ残差ブロック(LSRブロック)を提案する。
我々のフレームワークは明確な構造を持ち、様々な種類のマルチモーダル時系列分類タスクに直接適用することができる。
論文 参考訳(メタデータ) (2022-05-24T03:29:54Z) - A Spatio-Temporal Multilayer Perceptron for Gesture Recognition [70.34489104710366]
自律走行車におけるジェスチャー認識のための多層状態重み付きパーセプトロンを提案する。
提案手法の有望な性能を示すため,TCGおよびDrive&Actデータセットの評価を行った。
私たちは、そのリアルタイム能力と安定した実行を示すために、モデルを自動運転車にデプロイします。
論文 参考訳(メタデータ) (2022-04-25T08:42:47Z) - Efficient Modelling Across Time of Human Actions and Interactions [92.39082696657874]
3つの畳み込みニューラルネットワーク(CNND)における現在の固定サイズの時間的カーネルは、入力の時間的変動に対処するために改善できると主張している。
我々は、アーキテクチャの異なるレイヤにまたがる機能の違いを強化することで、アクションのクラス間でどのようにうまく対処できるかを研究する。
提案手法は、いくつかのベンチマークアクション認識データセットで評価され、競合する結果を示す。
論文 参考訳(メタデータ) (2021-10-05T15:39:11Z) - Temporal Memory Relation Network for Workflow Recognition from Surgical
Video [53.20825496640025]
本研究では, 長期および多スケールの時間パターンを関連づける, エンドツーエンドの時間メモリ関係ネットワーク (TMNet) を提案する。
我々はこのアプローチを2つのベンチマーク手術ビデオデータセットで広範囲に検証した。
論文 参考訳(メタデータ) (2021-03-30T13:20:26Z) - Learning Asynchronous and Sparse Human-Object Interaction in Videos [56.73059840294019]
Asynchronous-Sparse Interaction Graph Networks(ASSIGN)は、ビデオシーン内のエンティティに関連するインタラクションイベントの構造を自動的に検出します。
ASSIGNは人間と物体の相互作用認識において試験され、人間のサブアクティビティのセグメンテーションおよびラベル付けにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-03T23:43:55Z) - Associated Spatio-Temporal Capsule Network for Gait Recognition [36.85667679699001]
最先端のアプローチは、歩行の時間的または空間的特性の分析に依存する。
ASTCapsNetはマルチセンサーデータセットのトレーニングを受け、歩行認識のためのマルチモーダル情報を分析します。
論文 参考訳(メタデータ) (2021-01-07T09:55:17Z) - A Prospective Study on Sequence-Driven Temporal Sampling and Ego-Motion
Compensation for Action Recognition in the EPIC-Kitchens Dataset [68.8204255655161]
行動認識はコンピュータビジョンにおける最上位の研究分野の一つである。
エゴモーション記録シーケンスは重要な関連性を持つようになった。
提案手法は,このエゴモーションやカメラの動きを推定して対処することを目的としている。
論文 参考訳(メタデータ) (2020-08-26T14:44:45Z) - Learn to cycle: Time-consistent feature discovery for action recognition [83.43682368129072]
時間的変動を一般化することは、ビデオにおける効果的な行動認識の前提条件である。
Squeeze Re Temporal Gates (SRTG) を導入する。
SRTPGブロックを使用する場合,GFLOの数は最小限に抑えられ,一貫した改善が見られた。
論文 参考訳(メタデータ) (2020-06-15T09:36:28Z) - Deep ConvLSTM with self-attention for human activity decoding using
wearables [0.0]
本稿では,複数のセンサ時系列データの特徴を捉えつつ,重要な時間点を選択するディープニューラルネットワークアーキテクチャを提案する。
提案手法の有効性を,異なるデータサンプリング戦略にまたがって示すとともに,自己認識機構が大幅に改善したことを示す。
提案手法は、複数の身体センサからの人間の活動のより優れた復号化を、長期間にわたって行うことができる。
論文 参考訳(メタデータ) (2020-05-02T04:30:31Z) - Human Activity Recognition from Wearable Sensor Data Using
Self-Attention [2.9023633922848586]
本稿では,身体のセンサデータから行動認識のための自己認識型ニューラルネットワークモデルを提案する。
一般に公開されている4つのHARデータセット、PAMAP2、Opportunity、Skoda、USC-HADについて実験を行った。
ベンチマークテスト対象とLeave-out-subject評価の両方において,最近の最先端モデルよりも高い性能向上を実現している。
論文 参考訳(メタデータ) (2020-03-17T14:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。