論文の概要: CNN Autoencoders for Hierarchical Feature Extraction and Fusion in Multi-sensor Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2502.04489v1
- Date: Thu, 06 Feb 2025 20:36:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:57:59.508113
- Title: CNN Autoencoders for Hierarchical Feature Extraction and Fusion in Multi-sensor Human Activity Recognition
- Title(参考訳): 階層的特徴抽出と融合のためのCNNオートエンコーダ
- Authors: Saeed Arabzadeh, Farshad Almasganj, Mohammad Mahdi Ahmadi,
- Abstract要約: 我々は、IMUセンサデータから特徴を抽出し、融合するように設計された階層的教師なし核融合モデルを導入する。
調整されたモデルは、UCI-HAR、DaLiAc、パーキンソン病歩行ダタセットに適用される。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Deep learning methods have been widely used for Human Activity Recognition (HAR) using recorded signals from Iner-tial Measurement Units (IMUs) sensors that are installed on various parts of the human body. For this type of HAR, sev-eral challenges exist, the most significant of which is the analysis of multivarious IMU sensors data. Here, we introduce a Hierarchically Unsupervised Fusion (HUF) model designed to extract, and fuse features from IMU sensors data via a hybrid structure of Convolutional Neural Networks (CNN)s and Autoencoders (AE)s. First, we design a stack CNN-AE to embed short-time signals into sets of high dimensional features. Second, we develop another CNN-AE network to locally fuse the extracted features from each sensor unit. Finally, we unify all the sensor features through a third CNN-AE architecture as globally feature fusion to create a unique feature set. Additionally, we analyze the effects of varying the model hyperparameters. The best results are achieved with eight convolutional layers in each AE. Furthermore, it is determined that an overcomplete AE with 256 kernels in the code layer is suitable for feature extraction in the first block of the proposed HUF model; this number reduces to 64 in the last block of the model to customize the size of the applied features to the classifier. The tuned model is applied to the UCI-HAR, DaLiAc, and Parkinson's disease gait da-tasets, achieving the classification accuracies of 97%, 97%, and 88%, respectively, which are nearly 3% better com-pared to the state-of-the-art supervised methods.
- Abstract(参考訳): 深層学習法は人間の身体の様々な部分に装着されたIMU(Iner-tial Measurement Units)センサーから記録された信号を用いて、人間の活動認識(HAR)に広く用いられている。
このタイプのHARでは、Sev-eralの課題が存在し、最も重要なのは、多変量IMUセンサデータの解析である。
本稿では、畳み込みニューラルネットワーク(CNN)とオートエンコーダ(AE)のハイブリッド構造を用いて、IMUセンサデータから特徴を抽出し、融合するための階層的非教師付き核融合(HUF)モデルを提案する。
まず,短時間の信号を高次元特徴集合に埋め込むスタックCNN-AEを設計する。
第2に,各センサユニットから抽出した特徴を局所的に融合させるCNN-AEネットワークを開発した。
最後に、第3のCNN-AEアーキテクチャを通じて、すべてのセンサ機能をグローバルな機能融合として統合し、ユニークな機能セットを作成します。
さらに,モデルハイパーパラメータの変化の影響も分析した。
最良の結果は、各AEに8つの畳み込み層で達成される。
さらに、コード層に256個のカーネルを持つオーバーコンプリートAEは、提案したHUFモデルの第一ブロックにおける特徴抽出に適していると判断し、この数値はモデルの最後ブロックにおいて64まで減少し、分類器に適用される特徴のサイズをカスタマイズする。
The tuned model is applied to the UCI-HAR, DaLiAc, and Parkinson's disease gait da-tasets, achieve the classification accuracies of 97%, 97%, 88%, which are almost 3% better com-pared to the state-the-the-the-art supervised methods。
関連論文リスト
- Decomposing and Fusing Intra- and Inter-Sensor Spatio-Temporal Signal for Multi-Sensor Wearable Human Activity Recognition [12.359681612030682]
本稿では,モダリティ変数間の関係をよりよくモデル化するDecomposeWHARモデルを提案する。
分解は各センサ内変数の高次元表現を生成する。
融合フェーズは、センサー内変数間の関係を捉え、チャネルレベルと変数レベルの両方で特徴を融合することから始まる。
論文 参考訳(メタデータ) (2025-01-19T01:52:28Z) - Multi-Sensor Fusion for UAV Classification Based on Feature Maps of Image and Radar Data [4.392337343771302]
本稿では,すでに処理されているマルチセンサデータを新しいディープニューラルネットワークに融合させて,UAV検出のための分類精度を高めるシステムを提案する。
このモデルは、熱、光、レーダーデータに関連する個々の物体の検出と分類モデルから抽出された高レベル特徴を融合する。
論文 参考訳(メタデータ) (2024-10-21T15:12:37Z) - Multiple-Input Auto-Encoder Guided Feature Selection for IoT Intrusion Detection Systems [30.16714420093091]
本稿ではまず,Multiple-Input Auto-Encoder (MIAE)と呼ばれる新しいニューラルネットワークアーキテクチャを紹介する。
MIAEは複数のサブエンコーダで構成されており、異なる特性を持つ異なるソースからの入力を処理できる。
より関連性の高い機能を排除し、保持するために、トレーニングプロセスにおいて重要/冗長でないものを取り除くために、我々はさらに機能選択層を設計し、組み込む。
この層は表現ベクトルにおける特徴の重要性を学習し、表現ベクトルから情報的特徴の選択を容易にする。
論文 参考訳(メタデータ) (2024-03-22T03:54:04Z) - A Novel Two Stream Decision Level Fusion of Vision and Inertial Sensors
Data for Automatic Multimodal Human Activity Recognition System [2.5214116139219787]
本稿では,新しいマルチモーダルな人間活動認識システムを提案する。
視覚と慣性センサーを2ストリームの意思決定レベルで融合させる。
提案法で得られた収差は96.9%、97.6%、98.7%、95.9%である。
論文 参考訳(メタデータ) (2023-06-27T19:29:35Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - DeepFusion: Lidar-Camera Deep Fusion for Multi-Modal 3D Object Detection [83.18142309597984]
ライダーとカメラは、自動運転における3D検出を補完する情報を提供する重要なセンサーである。
我々はDeepFusionという名前の汎用マルチモーダル3D検出モデル群を開発した。
論文 参考訳(メタデータ) (2022-03-15T18:46:06Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - CNN based Multistage Gated Average Fusion (MGAF) for Human Action
Recognition Using Depth and Inertial Sensors [1.52292571922932]
畳み込みニューラルネットワーク(CNN)は、アーキテクチャのすべてのレイヤから機能を抽出し、融合するためのレバレッジを提供する。
我々は,CNNの全層から特徴を抽出し,融合する多段Gated Average Fusion (MGAF) ネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-29T11:49:13Z) - DecAug: Augmenting HOI Detection via Decomposition [54.65572599920679]
現在のアルゴリズムでは、データセット内のトレーニングサンプルやカテゴリの不均衡が不足している。
本稿では,HOI検出のためのDECAugと呼ばれる効率的かつ効率的なデータ拡張手法を提案する。
実験の結果,V-COCOおよびHICODETデータセットの3.3mAPと1.6mAPの改善が得られた。
論文 参考訳(メタデータ) (2020-10-02T13:59:05Z) - Contextual-Bandit Anomaly Detection for IoT Data in Distributed
Hierarchical Edge Computing [65.78881372074983]
IoTデバイスは複雑なディープニューラルネットワーク(DNN)モデルにはほとんど余裕がなく、異常検出タスクをクラウドにオフロードすることは長い遅延を引き起こす。
本稿では,分散階層エッジコンピューティング(HEC)システムを対象とした適応型異常検出手法のデモと構築を行う。
提案手法は,検出タスクをクラウドにオフロードした場合と比較して,精度を犠牲にすることなく検出遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2020-04-15T06:13:33Z) - ASFD: Automatic and Scalable Face Detector [129.82350993748258]
ASFD(Automatic and Scalable Face Detector)を提案する。
ASFDはニューラルアーキテクチャ検索技術の組み合わせと新たな損失設計に基づいている。
ASFD-D0は120FPS以上で動作し、MobilenetはVGA解像度の画像を撮影しています。
論文 参考訳(メタデータ) (2020-03-25T06:00:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。