論文の概要: Unimodal and Multimodal Sensor Fusion for Wearable Activity Recognition
- arxiv url: http://arxiv.org/abs/2404.16005v1
- Date: Wed, 24 Apr 2024 17:35:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 18:31:49.109350
- Title: Unimodal and Multimodal Sensor Fusion for Wearable Activity Recognition
- Title(参考訳): ウェアラブル能動認識のための単モーダル・マルチモーダルセンサフュージョン
- Authors: Hymalai Bello,
- Abstract要約: ヒューマンアクティビティ認識(HAR)は、冗長な情報と補完的な情報を組み合わせることで恩恵を受ける。
このPh.D.の仕事は、慣性、圧力(音響と大気圧)、およびHARのための繊維の容量感覚のような感覚モーダルを取り入れている。
選択されたウェアラブルデバイスとセンシングモダリティは、機械学習ベースのアルゴリズムと完全に統合されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Combining different sensing modalities with multiple positions helps form a unified perception and understanding of complex situations such as human behavior. Hence, human activity recognition (HAR) benefits from combining redundant and complementary information (Unimodal/Multimodal). Even so, it is not an easy task. It requires a multidisciplinary approach, including expertise in sensor technologies, signal processing, data fusion algorithms, and domain-specific knowledge. This Ph.D. work employs sensing modalities such as inertial, pressure (audio and atmospheric pressure), and textile capacitive sensing for HAR. The scenarios explored are gesture and hand position tracking, facial and head pattern recognition, and body posture and gesture recognition. The selected wearable devices and sensing modalities are fully integrated with machine learning-based algorithms, some of which are implemented in the embedded device, on the edge, and tested in real-time.
- Abstract(参考訳): 異なる感覚のモダリティと複数の位置を組み合わせることは、人間の行動のような複雑な状況に対する統一された認識と理解を形成するのに役立つ。
したがって、ヒューマンアクティビティ認識(HAR)は、重複情報と補完情報(Unimodal/Multimodal)を組み合わせることで恩恵を受ける。
それでも、簡単な作業ではありません。
センサー技術、信号処理、データ融合アルゴリズム、ドメイン固有の知識などの専門知識を含む、多分野のアプローチが必要です。
このPh.D.の仕事は、慣性、圧力(音響と大気圧)、およびHARのための繊維の容量感覚のような感覚モーダルを取り入れている。
探索されたシナリオは、ジェスチャーと手の位置追跡、顔と頭部のパターン認識、身体姿勢とジェスチャー認識である。
選択されたウェアラブルデバイスとセンシングモダリティは、マシンラーニングベースのアルゴリズムと完全に統合されており、その一部は組み込みデバイス、エッジに実装され、リアルタイムでテストされる。
関連論文リスト
- Unified Framework with Consistency across Modalities for Human Activity Recognition [14.639249548669756]
本稿では,ロバストな映像に基づく人間行動認識のための包括的枠組みを提案する。
主な貢献はComputerと呼ばれる新しいクエリマシンの導入である。
提案手法は,最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-04T02:25:10Z) - Apprenticeship-Inspired Elegance: Synergistic Knowledge Distillation Empowers Spiking Neural Networks for Efficient Single-Eye Emotion Recognition [53.359383163184425]
本稿では, 効率的な単一眼球運動認識タスクに適した, マルチモーダル・シナジスティック知識蒸留方式を提案する。
この方法では、軽量で単調な学生スパイクニューラルネットワーク(SNN)が、イベントフレームマルチモーダル教師ネットワークから豊富な知識を抽出することができる。
論文 参考訳(メタデータ) (2024-06-20T07:24:47Z) - SoK: Behind the Accuracy of Complex Human Activity Recognition Using Deep Learning [4.580983642743026]
HAR(Human Activity Recognition)は1980年代にさかのぼる研究分野である。
本稿では,データバージョニングやモデルキャパシティといった複雑なHARの不正確性につながる要因を包括的に体系化する。
論文 参考訳(メタデータ) (2024-04-25T10:07:56Z) - FedOpenHAR: Federated Multi-Task Transfer Learning for Sensor-Based
Human Activity Recognition [0.0]
本稿では,センサを用いた人間行動認識とデバイス位置識別の両課題に対して,フェデレート・トランスファー・ラーニングをマルチタスク方式で検討する。
OpenHARフレームワークは10個の小さなデータセットを含むモデルをトレーニングするために使用される。
タスク固有でパーソナライズされたフェデレーションモデルを用いたトランスファーラーニングとトレーニングにより、各クライアントを個別に訓練し、完全集中型アプローチよりも高い精度で学習した。
論文 参考訳(メタデータ) (2023-11-13T21:31:07Z) - MultiIoT: Benchmarking Machine Learning for the Internet of Things [70.74131118309967]
次世代の機械学習システムは、物理的世界に対する知覚と相互作用に長けなければならない。
運動、熱、位置情報、深度、無線信号、ビデオ、オーディオからの知覚データは、物理環境の状態をモデル化するためにますます使われています。
既存の取り組みは、しばしば単一の感覚的モダリティまたは予測タスクに特化している。
本稿は、12のモダリティと8つの現実世界タスクから115万以上のサンプルを含む、これまでで最も拡張的で統一されたIoTベンチマークであるMultiIoTを提案する。
論文 参考訳(メタデータ) (2023-11-10T18:13:08Z) - Investigating Deep Neural Network Architecture and Feature Extraction
Designs for Sensor-based Human Activity Recognition [0.0]
様々な領域にわたるディープラーニングの有効性が証明されたことを踏まえ、アクティビティ認識の課題に取り組むために多くのディープメソッドが検討されている。
一般的なディープラーニングと機械学習の手法と、異なる学習メカニズムの性能について検討する。
センサ時系列データから抽出した様々な特徴表現と,その有効性を測定した。
論文 参考訳(メタデータ) (2023-09-26T14:55:32Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Vision+X: A Survey on Multimodal Learning in the Light of Data [64.03266872103835]
様々なソースからのデータを組み込んだマルチモーダル機械学習が,ますます普及している研究分野となっている。
我々は、視覚、音声、テキスト、動きなど、各データフォーマットの共通点と特異点を分析する。
本稿では,表現学習と下流アプリケーションレベルの両方から,マルチモーダル学習に関する既存の文献を考察する。
論文 参考訳(メタデータ) (2022-10-05T13:14:57Z) - TANDEM: Learning Joint Exploration and Decision Making with Tactile
Sensors [15.418884994244996]
我々は,触覚探索の指導プロセスとタスク関連意思決定との相互作用に焦点を当てた。
意思決定と協調して効率的な探索戦略を学習するアーキテクチャであるTANDEMを提案する。
本手法は,触覚フィードバックのみに基づいて,触覚センサを備えたロボットが既知の集合から物体を探索・識別する必要がある触覚物体認識タスクにおいて実証する。
論文 参考訳(メタデータ) (2022-03-01T23:55:09Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。