論文の概要: Conditional-UNet: A Condition-aware Deep Model for Coherent Human
Activity Recognition From Wearables
- arxiv url: http://arxiv.org/abs/2004.09376v1
- Date: Wed, 15 Apr 2020 12:45:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 04:31:30.387711
- Title: Conditional-UNet: A Condition-aware Deep Model for Coherent Human
Activity Recognition From Wearables
- Title(参考訳): conditional-unet: ウェアラブルからの人間行動認識のための条件認識深層モデル
- Authors: Liming Zhang
- Abstract要約: コヒーレントヒューマンアクティビティ認識(Co-HAR)は、通常の多クラス分類よりも複雑である。
条件付きUNetはCo-HAR問題に対して高密度なラベル付けを可能にするために開発された。
また,歩行条件や座位条件下での頭部運動認識のための第一種Co-HARデータセットも提供した。
- 参考スコア(独自算出の注目度): 4.679420018653182
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recognizing human activities from multi-channel time series data collected
from wearable sensors is ever more practical. However, in real-world
conditions, coherent activities and body movements could happen at the same
time, like moving head during walking or sitting. A new problem, so-called
"Coherent Human Activity Recognition (Co-HAR)", is more complicated than normal
multi-class classification tasks since signals of different movements are mixed
and interfered with each other. On the other side, we consider such Co-HAR as a
dense labelling problem that classify each sample on a time step with a label
to provide high-fidelity and duration-varied support to applications. In this
paper, a novel condition-aware deep architecture "Conditional-UNet" is
developed to allow dense labeling for Co-HAR problem. We also contribute a
first-of-its-kind Co-HAR dataset for head movement recognition under walk or
sit condition for future research. Experiments on head gesture recognition show
that our model achieve overall 2%-3% performance gain of F1 score over existing
state-of-the-art deep methods, and more importantly, systematic and
comprehensive improvements on real head gesture classes.
- Abstract(参考訳): ウェアラブルセンサーから収集したマルチチャネル時系列データから人間の活動を認識することは、より実用的です。
しかし、現実の環境では、歩いたり座ったりしながら頭を動かすなど、コヒーレントな活動と体の動きが同時に起こる可能性がある。
コヒーレントヒューマンアクティビティ認識(Co-HAR)と呼ばれる新しい問題は、異なる動きの信号が混在して干渉されるため、通常の多クラス分類タスクよりも複雑である。
一方、このようなCo-HARは、各サンプルをラベル付きタイムステップで分類し、アプリケーションへの高忠実度と長寿命サポートを提供する密着なラベル付け問題であると考えている。
本稿では,Co-HAR問題に対する高密度ラベリングを実現するために,条件対応の深層アーキテクチャ"Conditional-UNet"を開発した。
また,歩行条件や座り条件下での頭部運動認識のためのCo-HARデータセットも提案する。
ヘッドジェスチャ認識実験により,既存の最先端のディープメソッドよりもF1スコアが2%~3%向上し,さらに重要な点として,実頭部ジェスチャクラスに対する体系的・包括的改善が得られた。
関連論文リスト
- CLAN: A Contrastive Learning based Novelty Detection Framework for Human
Activity Recognition [3.0108863071498035]
CLANは、人間の活動認識のための2段階のコントラスト学習に基づく新規性検出フレームワークである。
それは、時間的および周波数的特徴の重要さを含む、人間の活動特性に関する課題に合わせたものである。
4つの実世界の人間活動データセットの実験により、CLANは既存の新規性検出手法の最高の性能を上回っていることが示された。
論文 参考訳(メタデータ) (2024-01-17T03:57:36Z) - Towards Continual Egocentric Activity Recognition: A Multi-modal
Egocentric Activity Dataset for Continual Learning [21.68009790164824]
UESTC-MMEA-CLという連続学習のためのマルチモーダル・エゴセントリックな活動データセットを提案する。
ビデオ、加速度計、ジャイロスコープの同期データを含み、32種類の日常活動が10人の参加者によって行われる。
RGB, 加速度, ジャイロスコープの3つのモードを別々に使用した場合に, エゴセントリックな活動認識の結果が報告される。
論文 参考訳(メタデータ) (2023-01-26T04:32:00Z) - Are All Steps Equally Important? Benchmarking Essentiality Detection of
Events [92.92425231146433]
本稿では,現在のモデルが目標イベントに関連するステップイベントの本質をどの程度理解しているかについて検討する。
コミュニティガイドサイトWikiHowから収集した高品質なペア(ゴール,ステップ)コーパスをコントリビュートする。
高いアノテータ間の合意は、人間が事象の本質について一貫した理解を持っていることを証明している。
論文 参考訳(メタデータ) (2022-10-08T18:00:22Z) - CHARM: A Hierarchical Deep Learning Model for Classification of Complex
Human Activities Using Motion Sensors [0.9594432031144714]
CHARMは、モーションセンサーを用いた複雑な人間の活動の分類のための階層的なディープラーニングモデルである。
これは、平均精度とF1スコアの点で、最先端のアクティビティ認識のための最先端の教師付き学習アプローチよりも優れています。
ハイレベルなアクティビティラベルのみを使用してトレーニングされた場合、低レベルなユーザアクティビティを学習する能力は、HARタスクの半教師付き学習の道を開く可能性がある。
論文 参考訳(メタデータ) (2022-07-16T01:36:54Z) - HAR-GCNN: Deep Graph CNNs for Human Activity Recognition From Highly
Unlabeled Mobile Sensor Data [61.79595926825511]
正確な活動ラベルを含むバランスのとれたデータセットを取得するには、人間が正しく注釈を付け、リアルタイムで被験者の通常の活動に干渉する必要がある。
本研究では,HAR-GCCNモデルを提案する。HAR-GCCNは,時系列に隣接したセンサ測定の相関を利用して,不特定活動の正確なラベルを予測する。
Har-GCCNは、これまで使用されていたベースライン手法と比較して優れたパフォーマンスを示し、分類精度を25%改善し、異なるデータセットで最大68%向上した。
論文 参考訳(メタデータ) (2022-03-07T01:23:46Z) - ACP++: Action Co-occurrence Priors for Human-Object Interaction
Detection [102.9428507180728]
ヒューマン・オブジェクト・インタラクション(HOI)検出のタスクにおける一般的な問題は、多数のHOIクラスが少数のラベル付き例しか持たないことである。
我々は、人間と物体の相互作用の間に自然の相関関係と反相関が存在することを観察した。
我々は、これらの先行知識を学習し、特に稀なクラスにおいて、より効果的な訓練に活用する手法を提案する。
論文 参考訳(メタデータ) (2021-09-09T06:02:50Z) - HHAR-net: Hierarchical Human Activity Recognition using Neural Networks [2.4530909757679633]
本研究では,人間の行動を認識するためにニューラルネットワークを用いた階層型分類を構築することを目的とする。
このデータセットは、野生で収集され、スマートフォンやスマートウォッチからのデータを含んでいる。
論文 参考訳(メタデータ) (2020-10-28T17:06:42Z) - DIRV: Dense Interaction Region Voting for End-to-End Human-Object
Interaction Detection [53.40028068801092]
本稿では,HOI問題に対するインタラクション領域という新しい概念に基づいて,新しい一段階HOI検出手法を提案する。
従来の手法とは異なり,本手法は人-物対ごとに異なるスケールにわたる密集した相互作用領域に焦点をあてる。
単一相互作用領域の検出欠陥を補うために,我々は新しい投票戦略を導入する。
論文 参考訳(メタデータ) (2020-10-02T13:57:58Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z) - Detecting Human-Object Interactions with Action Co-occurrence Priors [108.31956827512376]
人-物間相互作用(HOI)検出タスクにおける一般的な問題は、多数のHOIクラスが少数のラベル付き例しか持たないことである。
我々は、人間と物体の相互作用の間に自然の相関と反相関が存在することを観察した。
我々はこれらの先行知識を学習し、特に稀なクラスにおいてより効果的な訓練に活用する手法を提案する。
論文 参考訳(メタデータ) (2020-07-17T02:47:45Z) - Human Activity Recognition from Wearable Sensor Data Using
Self-Attention [2.9023633922848586]
本稿では,身体のセンサデータから行動認識のための自己認識型ニューラルネットワークモデルを提案する。
一般に公開されている4つのHARデータセット、PAMAP2、Opportunity、Skoda、USC-HADについて実験を行った。
ベンチマークテスト対象とLeave-out-subject評価の両方において,最近の最先端モデルよりも高い性能向上を実現している。
論文 参考訳(メタデータ) (2020-03-17T14:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。