論文の概要: Fine-grained Human Activity Recognition Using Virtual On-body
Acceleration Data
- arxiv url: http://arxiv.org/abs/2211.01342v1
- Date: Wed, 2 Nov 2022 17:51:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 13:48:39.230802
- Title: Fine-grained Human Activity Recognition Using Virtual On-body
Acceleration Data
- Title(参考訳): 仮想体上加速度データを用いたきめ細かい人物活動認識
- Authors: Zikang Leng, Yash Jain, Hyeokhyen Kwon, Thomas Pl\"otz
- Abstract要約: IMUTubeはもともと、身体(部分)の動きに基づいて活動をカバーするように設計されていた。
本稿では,関心活動の根底にある人間の動きの微妙さを定量的に評価する尺度を提案する。
次に、IMUTube上で「ストレステスト」を行い、その基盤となる微妙な動きを持つアクティビティを、モダリティ間移動アプローチが機能し、そうでないアクティビティを探索する。
- 参考スコア(独自算出の注目度): 1.64882269584049
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous work has demonstrated that virtual accelerometry data, extracted
from videos using cross-modality transfer approaches like IMUTube, is
beneficial for training complex and effective human activity recognition (HAR)
models. Systems like IMUTube were originally designed to cover activities that
are based on substantial body (part) movements. Yet, life is complex, and a
range of activities of daily living is based on only rather subtle movements,
which bears the question to what extent systems like IMUTube are of value also
for fine-grained HAR, i.e., When does IMUTube break? In this work we first
introduce a measure to quantitatively assess the subtlety of human movements
that are underlying activities of interest--the motion subtlety index
(MSI)--which captures local pixel movements and pose changes in the vicinity of
target virtual sensor locations, and correlate it to the eventual activity
recognition accuracy. We then perform a "stress-test" on IMUTube and explore
for which activities with underlying subtle movements a cross-modality transfer
approach works, and for which not. As such, the work presented in this paper
allows us to map out the landscape for IMUTube applications in practical
scenarios.
- Abstract(参考訳): これまでの研究では、imutubeのようなクロスモダリティトランスファーアプローチでビデオから抽出された仮想加速度計測データが、複雑で効果的なヒト活動認識(har)モデルのトレーニングに有用であることを実証している。
IMUTubeのようなシステムは、本来は身体(部分)の動きに基づく活動をカバーするように設計されていた。
しかし、生活は複雑であり、日常生活の様々な活動は、かなり微妙な動きのみに基づいており、IMUTubeのようなシステムは、粒度の細かいHARにもどの程度の価値があるか、すなわちIMUTubeはいつ壊れるのか、という疑問を抱いている。
本研究は,まず,対象仮想センサ近傍の局所的な画素の動きとポーズ変化を捉え,その結果の行動認識精度に関連付ける,興味のある活動の基盤となる人間の動きの微妙なさを定量的に評価する尺度であるモーション・マイナリティ・インデックス(msi)を提案する。
次に, imutube 上で "stress-test" を行い, 基本となる微妙な動きを伴う動作を探索する。
そこで,本稿では,実用シナリオにおいてイムチューブ応用の景観を地図化する手法を提案する。
関連論文リスト
- Cross-Domain HAR: Few Shot Transfer Learning for Human Activity
Recognition [0.2944538605197902]
本稿では,HARデータセットを有効な転送学習に利用するための経済的なアプローチを提案する。
本稿では,教師が学習する自己学習パラダイムに則って,新たな伝達学習フレームワークであるクロスドメインHARを紹介する。
本手法の有効性を,撮影活動認識のシナリオで実証する。
論文 参考訳(メタデータ) (2023-10-22T19:13:25Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - milliFlow: Scene Flow Estimation on mmWave Radar Point Cloud for Human Motion Sensing [11.541217629396373]
mmWaveレーダーはプライバシーにやさしい機能のために人気を博している。
我々はmmWave点雲の相補的な動き情報としてシーンフローを推定する新しい深層学習手法である MilliFlow を提案する。
論文 参考訳(メタデータ) (2023-06-29T15:06:21Z) - Event-Free Moving Object Segmentation from Moving Ego Vehicle [88.33470650615162]
動的シーンにおけるオブジェクトセグメンテーション(MOS)の移動は、自律運転において重要で困難だが、未調査の研究テーマである。
ほとんどのセグメンテーション法は、光学フローマップから得られるモーションキューを利用する。
我々は,光学的フローに頼らずにリッチなモーションキューを提供する,より優れた映像理解のためのイベントカメラを活用することを提案する。
論文 参考訳(メタデータ) (2023-04-28T23:43:10Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - Contrastive Predictive Coding for Human Activity Recognition [5.766384728949437]
本研究では,センサデータストリームの長期的時間構造をキャプチャする人間行動認識にContrastive Predictive Codingフレームワークを導入する。
CPCベースの事前学習は自己管理され、その結果得られた表現は標準のアクティビティチェーンに統合できる。
少量のラベル付きトレーニングデータしか利用できない場合、認識性能が大幅に向上します。
論文 参考訳(メタデータ) (2020-12-09T21:44:36Z) - Point Cloud Based Reinforcement Learning for Sim-to-Real and Partial
Observability in Visual Navigation [62.22058066456076]
強化学習(Reinforcement Learning, RL)は、複雑なロボットタスクを解決する強力なツールである。
RL は sim-to-real transfer problem として知られる現実世界では直接作用しない。
本稿では,点雲と環境ランダム化によって構築された観測空間を学習する手法を提案する。
論文 参考訳(メタデータ) (2020-07-27T17:46:59Z) - IMUTube: Automatic Extraction of Virtual on-body Accelerometry from
Video for Human Activity Recognition [12.91206329972949]
IMUTubeは、人間の活動の映像をIMUデータの仮想ストリームに変換する自動処理パイプラインである。
これらの仮想IMUストリームは、人体の様々な場所で加速度計を表現している。
本稿では,実際のIMUデータにより,既知のHARデータセット上での各種モデルの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-05-29T21:50:38Z) - ZSTAD: Zero-Shot Temporal Activity Detection [107.63759089583382]
本研究では,ゼロショット時間的活動検出(ZSTAD)と呼ばれる新たなタスク設定を提案する。
このソリューションのアーキテクチャとして,R-C3Dに基づくエンドツーエンドのディープネットワークを設計する。
THUMOS14とCharadesデータセットの両方の実験は、目に見えない活動を検出するという点で有望なパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-03-12T02:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。