論文の概要: Unimodal and Multimodal Sensor Fusion for Wearable Activity Recognition
- arxiv url: http://arxiv.org/abs/2404.16005v1
- Date: Wed, 24 Apr 2024 17:35:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 18:31:49.109350
- Title: Unimodal and Multimodal Sensor Fusion for Wearable Activity Recognition
- Title(参考訳): ウェアラブル能動認識のための単モーダル・マルチモーダルセンサフュージョン
- Authors: Hymalai Bello,
- Abstract要約: ヒューマンアクティビティ認識(HAR)は、冗長な情報と補完的な情報を組み合わせることで恩恵を受ける。
このPh.D.の仕事は、慣性、圧力(音響と大気圧)、およびHARのための繊維の容量感覚のような感覚モーダルを取り入れている。
選択されたウェアラブルデバイスとセンシングモダリティは、機械学習ベースのアルゴリズムと完全に統合されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Combining different sensing modalities with multiple positions helps form a unified perception and understanding of complex situations such as human behavior. Hence, human activity recognition (HAR) benefits from combining redundant and complementary information (Unimodal/Multimodal). Even so, it is not an easy task. It requires a multidisciplinary approach, including expertise in sensor technologies, signal processing, data fusion algorithms, and domain-specific knowledge. This Ph.D. work employs sensing modalities such as inertial, pressure (audio and atmospheric pressure), and textile capacitive sensing for HAR. The scenarios explored are gesture and hand position tracking, facial and head pattern recognition, and body posture and gesture recognition. The selected wearable devices and sensing modalities are fully integrated with machine learning-based algorithms, some of which are implemented in the embedded device, on the edge, and tested in real-time.
- Abstract(参考訳): 異なる感覚のモダリティと複数の位置を組み合わせることは、人間の行動のような複雑な状況に対する統一された認識と理解を形成するのに役立つ。
したがって、ヒューマンアクティビティ認識(HAR)は、重複情報と補完情報(Unimodal/Multimodal)を組み合わせることで恩恵を受ける。
それでも、簡単な作業ではありません。
センサー技術、信号処理、データ融合アルゴリズム、ドメイン固有の知識などの専門知識を含む、多分野のアプローチが必要です。
このPh.D.の仕事は、慣性、圧力(音響と大気圧)、およびHARのための繊維の容量感覚のような感覚モーダルを取り入れている。
探索されたシナリオは、ジェスチャーと手の位置追跡、顔と頭部のパターン認識、身体姿勢とジェスチャー認識である。
選択されたウェアラブルデバイスとセンシングモダリティは、マシンラーニングベースのアルゴリズムと完全に統合されており、その一部は組み込みデバイス、エッジに実装され、リアルタイムでテストされる。
関連論文リスト
- FedOpenHAR: Federated Multi-Task Transfer Learning for Sensor-Based
Human Activity Recognition [0.0]
本稿では,センサを用いた人間行動認識とデバイス位置識別の両課題に対して,フェデレート・トランスファー・ラーニングをマルチタスク方式で検討する。
OpenHARフレームワークは10個の小さなデータセットを含むモデルをトレーニングするために使用される。
タスク固有でパーソナライズされたフェデレーションモデルを用いたトランスファーラーニングとトレーニングにより、各クライアントを個別に訓練し、完全集中型アプローチよりも高い精度で学習した。
論文 参考訳(メタデータ) (2023-11-13T21:31:07Z) - MultiIoT: Towards Large-scale Multisensory Learning for the Internet of
Things [77.27980044639136]
IoT(Internet of Things)エコシステムは、マシンラーニングのための現実世界のモダリティの豊富なソースを提供する。
本稿では,12のモダリティと8タスクから115万以上のサンプルを対象とする,これまでで最も拡張性の高いIoTベンチマークであるMultiIoTを提案する。
論文 参考訳(メタデータ) (2023-11-10T18:13:08Z) - Investigating Deep Neural Network Architecture and Feature Extraction
Designs for Sensor-based Human Activity Recognition [0.0]
様々な領域にわたるディープラーニングの有効性が証明されたことを踏まえ、アクティビティ認識の課題に取り組むために多くのディープメソッドが検討されている。
一般的なディープラーニングと機械学習の手法と、異なる学習メカニズムの性能について検討する。
センサ時系列データから抽出した様々な特徴表現と,その有効性を測定した。
論文 参考訳(メタデータ) (2023-09-26T14:55:32Z) - Multi-Dimensional Ability Diagnosis for Machine Learning Algorithms [88.93372675846123]
本稿では,機械学習アルゴリズム評価のためのタスク非依存評価フレームワークCamillaを提案する。
認識診断の仮定とニューラルネットワークを用いて、各サンプルのアルゴリズム、サンプル、スキル間の複雑な相互作用を学習する。
我々の実験では、カミラはメートル法信頼性、ランクの整合性、ランクの安定性で最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2023-07-14T03:15:56Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - A Survey on Multi-Resident Activity Recognition in Smart Environments [1.2037683414151241]
HAR(Human Activity Recognition)は、スマートデバイス、センサー、アルゴリズムを利用して個人の行動を自動的に分類し識別する、急速に成長する分野である。
これらのシステムには、ケアタスクの支援、セキュリティの向上、エネルギー効率の向上など、幅広い応用がある。
重要な課題の1つは、センサーの観察と関係者の身元を正確に関連付けることである。
論文 参考訳(メタデータ) (2023-04-24T17:55:10Z) - Recognizing Complex Gestures on Minimalistic Knitted Sensors: Toward
Real-World Interactive Systems [0.13048920509133805]
デジタル編みの容量型アクティブセンサーは、人間の介入はほとんどなく、大規模に製造できる。
本研究は,対話型ジェスチャー認識システムの基礎を構築することにより,そのようなセンサの能力を向上させる。
論文 参考訳(メタデータ) (2023-03-18T04:57:46Z) - Vision+X: A Survey on Multimodal Learning in the Light of Data [71.07658443380264]
様々なモダリティのデータを組み込んだマルチモーダル機械学習は、ますます人気のある研究分野になりつつある。
我々は、視覚、音声、テキストなど、各データフォーマットの共通点と特異点を分析し、Vision+Xの組み合わせによって分類された技術開発を提示する。
論文 参考訳(メタデータ) (2022-10-05T13:14:57Z) - TANDEM: Learning Joint Exploration and Decision Making with Tactile
Sensors [15.418884994244996]
我々は,触覚探索の指導プロセスとタスク関連意思決定との相互作用に焦点を当てた。
意思決定と協調して効率的な探索戦略を学習するアーキテクチャであるTANDEMを提案する。
本手法は,触覚フィードバックのみに基づいて,触覚センサを備えたロボットが既知の集合から物体を探索・識別する必要がある触覚物体認識タスクにおいて実証する。
論文 参考訳(メタデータ) (2022-03-01T23:55:09Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。