論文の概要: CZU-MHAD: A multimodal dataset for human action recognition utilizing a
depth camera and 10 wearable inertial sensors
- arxiv url: http://arxiv.org/abs/2202.03283v1
- Date: Mon, 7 Feb 2022 15:17:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 17:06:00.644365
- Title: CZU-MHAD: A multimodal dataset for human action recognition utilizing a
depth camera and 10 wearable inertial sensors
- Title(参考訳): CZU-MHAD:深度カメラと10個のウェアラブル慣性センサーを用いた人間の行動認識のためのマルチモーダルデータセット
- Authors: Xin Chao, Zhenjie Hou, Yujian Mo
- Abstract要約: CZU-MHAD (Changzhou University: a comprehensive multi-modal human action dataset) は22のアクションと3つのモーダル時間同期データからなる。
これらのモードには、キネクトv2カメラからの深度ビデオと骨格の位置、および10個のウェアラブルセンサーからの慣性信号が含まれる。
- 参考スコア(独自算出の注目度): 1.0742675209112622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human action recognition has been widely used in many fields of life, and
many human action datasets have been published at the same time. However, most
of the multi-modal databases have some shortcomings in the layout and number of
sensors, which cannot fully represent the action features. Regarding the
problems, this paper proposes a freely available dataset, named CZU-MHAD
(Changzhou University: a comprehensive multi-modal human action dataset). It
consists of 22 actions and three modals temporal synchronized data. These
modals include depth videos and skeleton positions from a kinect v2 camera, and
inertial signals from 10 wearable sensors. Compared with single modal sensors,
multi-modal sensors can collect different modal data, so the use of multi-modal
sensors can describe actions more accurately. Moreover, CZU-MHAD obtains the
3-axis acceleration and 3-axis angular velocity of 10 main motion joints by
binding inertial sensors to them, and these data were captured at the same
time. Experimental results are provided to show that this dataset can be used
to study structural relationships between different parts of the human body
when performing actions and fusion approaches that involve multi-modal sensor
data.
- Abstract(参考訳): 人間の行動認識は多くの分野で広く使われており、同時に多くの人間の行動データセットが公開された。
しかし、マルチモーダルデータベースの多くは、動作機能を完全に表現できない、レイアウトやセンサーの数にいくつかの欠点がある。
そこで本研究では,CZU-MHAD (Changzhou University: a comprehensive multi-modal human action dataset) という,無償で利用可能なデータセットを提案する。
22のアクションと3つのモーダルの時間同期データからなる。
これらのモードには、kinect v2カメラからの深度ビデオとスケルトン位置、および10個のウェアラブルセンサーからの慣性信号が含まれる。
単一のモダルセンサと比較して、マルチモダルセンサは異なるモダルデータを収集できるため、マルチモダルセンサを使用することで、より正確な動作を記述できる。
また、czu-mhadは慣性センサを結合して10個の主動作関節の3軸加速度と3軸角速度を求め、同時に観測した。
実験結果は,マルチモーダルセンサデータを含む融合アプローチを行う際に,人体の異なる部位間の構造的関係を研究するために,このデータセットが有効であることを示す。
関連論文リスト
- Motion Capture from Inertial and Vision Sensors [60.5190090684795]
MINIONSは、INertialとvisION Sensorsから収集された大規模なモーションキャプチャーデータセットである。
単眼カメラと極めて少ないIMUを用いたマルチモーダルモーションキャプチャの実験を行った。
論文 参考訳(メタデータ) (2024-07-23T09:41:10Z) - Disentangling Imperfect: A Wavelet-Infused Multilevel Heterogeneous
Network for Human Activity Recognition in Flawed Wearable Sensor Data [30.213716132980874]
センサデータ解析のためのマルチレベルヘテロジニアスニューラルネットワーク MHNN を提案する。
センサデータからマルチレベル離散ウェーブレット分解法を用いてマルチレゾリューション特徴を抽出する。
提案したモデルに,マルチスケール特徴の学習を可能にする異種特徴抽出器を装備する。
論文 参考訳(メタデータ) (2024-01-26T06:08:49Z) - UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input [51.150605800173366]
UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-07-03T04:10:55Z) - Robust Multimodal Fusion for Human Activity Recognition [5.858726030608716]
本稿では,データ品質問題に対して堅牢なHARのためのマルチモーダル融合モデルであるCentaurを提案する。
Centaurデータクリーニングモジュールは、2つの最先端のオートエンコーダベースのモデルより優れ、そのマルチモーダル融合モジュールは4つの強いベースラインより優れている。
2つの関連する堅牢な融合アーキテクチャと比較して、Centaurはより堅牢であり、HARでは11.59-17.52%高い精度を達成している。
論文 参考訳(メタデータ) (2023-03-08T14:56:11Z) - HUM3DIL: Semi-supervised Multi-modal 3D Human Pose Estimation for
Autonomous Driving [95.42203932627102]
3Dの人間のポーズ推定は、自動運転車が歩行者の微妙で複雑な振る舞いを知覚し理解できるようにする新しい技術である。
提案手法は,これらの補完信号を半教師付き方式で効率的に利用し,既存の手法よりも大きなマージンで性能を向上する。
具体的には、LiDAR点を画素整列マルチモーダル特徴に埋め込み、トランスフォーマーの精細化段階を経る。
論文 参考訳(メタデータ) (2022-12-15T11:15:14Z) - mRI: Multi-modal 3D Human Pose Estimation Dataset using mmWave, RGB-D,
and Inertial Sensors [6.955796938573367]
mmWave, RGB-D, Inertial Sensors を用いたマルチモーダルな3次元ポーズ推定データセット mRI を提案する。
我々のデータセットは、リハビリテーション運動を行う20人の被験者から160万以上の同期フレームで構成されている。
論文 参考訳(メタデータ) (2022-10-15T23:08:44Z) - DynImp: Dynamic Imputation for Wearable Sensing Data Through Sensory and
Temporal Relatedness [78.98998551326812]
従来の手法では、データの時系列ダイナミクスと、異なるセンサーの特徴の関連性の両方をめったに利用していない、と我々は主張する。
我々はDynImpと呼ばれるモデルを提案し、特徴軸に沿って近接する隣人と異なる時間点の欠如を扱う。
本手法は, 関連センサのマルチモーダル性特性を活かし, 履歴時系列のダイナミックスから学習し, 極端に欠落した状態でデータを再構築することができることを示す。
論文 参考訳(メタデータ) (2022-09-26T21:59:14Z) - HuMMan: Multi-Modal 4D Human Dataset for Versatile Sensing and Modeling [83.57675975092496]
HuMManは、1000人の被験者、400kシーケンス、60Mフレームからなる大規模なマルチモーダル4Dデータセットである。
1)カラーイメージ、ポイントクラウド、キーポイント、SMPLパラメータ、テクスチャメッシュを含むマルチモーダルデータとアノテーション。
論文 参考訳(メタデータ) (2022-04-28T17:54:25Z) - Learning Online Multi-Sensor Depth Fusion [100.84519175539378]
SenFuNetは、センサ固有のノイズと外れ値統計を学習するディープフュージョンアプローチである。
実世界のCoRBSとScene3Dデータセットで様々なセンサーの組み合わせで実験を行う。
論文 参考訳(メタデータ) (2022-04-07T10:45:32Z) - WaveGlove: Transformer-based hand gesture recognition using multiple
inertial sensors [0.0]
近年、慣性データに基づく手のジェスチャー認識(HGR)が大幅に増加しています。
本研究では,複数の慣性センサを利用するメリットを検討する。
論文 参考訳(メタデータ) (2021-05-04T20:50:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。