論文の概要: AmicroN: A Framework for Generating Annotations for Human Activity
Recognition with Granular Micro-Activities
- arxiv url: http://arxiv.org/abs/2306.13149v1
- Date: Thu, 22 Jun 2023 18:14:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-26 14:24:07.182059
- Title: AmicroN: A Framework for Generating Annotations for Human Activity
Recognition with Granular Micro-Activities
- Title(参考訳): amicron:粒状マイクロアクティビティを用いたヒューマンアクティビティ認識のためのアノテーション生成フレームワーク
- Authors: Soumyajit Chatterjee, Bivas Mitra and Sandip Chakraborty
- Abstract要約: センサデータを用いた効率的なヒューマンアクティビティ認識(HAR)には,大量の注釈付きデータが必要である。
マイクロアクティビティアノテーションを自動生成するフレームワークAmicroNを開発した。
AmicroNは、0.75の中央値F1スコアのマイクロアクティビティアノテーションを正確に生成することができる。
- 参考スコア(独自算出の注目度): 9.932955378554023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efficient human activity recognition (HAR) using sensor data needs a
significant volume of annotated data. The growing volume of unlabelled sensor
data has challenged conventional practices for gathering HAR annotations with
human-in-the-loop approaches, often leading to the collection of shallower
annotations. These shallower annotations ignore the fine-grained
micro-activities that constitute any complex activities of daily living (ADL).
Understanding this, we, in this paper, first analyze this lack of granular
annotations from available pre-annotated datasets to understand the practical
inconsistencies and also perform a detailed survey to look into the human
perception surrounding annotations. Drawing motivations from these, we next
develop the framework AmicroN that can automatically generate micro-activity
annotations using locomotive signatures and the available coarse-grain
macro-activity labels. In the backend, AmicroN applies change-point detection
followed by zero-shot learning with activity embeddings to identify the unseen
micro-activities in an unsupervised manner. Rigorous evaluation on publicly
available datasets shows that AmicroN can accurately generate micro-activity
annotations with a median F1-score of >0.75. Additionally, we also show that
AmicroN can be used in a plug-and-play manner with Large Language Models (LLMs)
to obtain the micro-activity labels, thus making it more practical for
realistic applications.
- Abstract(参考訳): センサデータを用いた効率的なヒューマンアクティビティ認識(har)には,大量の注釈データが必要である。
ラベルなしのセンサデータの増加は、ループ内の人的アプローチでharアノテーションを収集する従来の慣行に挑戦し、より浅いアノテーションの収集に繋がることが多い。
これらの浅いアノテーションは、日常生活(ADL)の複雑な活動を構成する微細な微小活性を無視する。
これを理解するために,本論文では,まず,利用可能な注釈付きデータセットの粒度の欠如を分析し,実際の矛盾を理解するとともに,アノテーションを取り巻く人間の認識を詳細に調査する。
次に, 機関車のシグネチャと粗粒マクロ活性ラベルを用いて, マイクロアクティビティアノテーションを自動生成するフレームワークAmicroNを開発した。
バックエンドでは、AmicroNは変更点検出に続いてアクティビティ埋め込みを伴うゼロショット学習を適用し、教師なしの方法で未確認のマイクロアクティビティを識別する。
公開されているデータセットの厳密な評価は、AmicroNが0.75の中央値F1スコアのマイクロアクティビティアノテーションを正確に生成できることを示している。
さらに,AmicroNはLarge Language Models (LLMs) とプラグイン・アンド・プレイ方式でマイクロアクティブなラベルを得ることができ,現実的なアプリケーションではより実用的であることを示す。
関連論文リスト
- MMAD: Multi-label Micro-Action Detection in Videos [23.508563348306534]
MMAD(Multi-label Micro-Action Detection)と呼ばれる新しいタスクを提案する。
MMADは、与えられたショートビデオ内のすべてのマイクロアクションを特定し、開始時間と終了時間を決定し、それらを分類する。
MMADタスクを支援するために,MMA-52(Multi-label Micro-Action-52)と呼ばれる新しいデータセットを導入する。
論文 参考訳(メタデータ) (2024-07-07T09:45:14Z) - VCHAR:Variance-Driven Complex Human Activity Recognition framework with Generative Representation [6.278293754210117]
VCHAR(Variance-Driven Complex Human Activity Recognition)は、原子活動の出力を特定の間隔での分布として扱う新しいフレームワークである。
VCHARは、原子活動の正確な時間的・シーケンシャルなラベル付けを必要とせず、複雑な活動認識の精度を高める。
論文 参考訳(メタデータ) (2024-07-03T17:24:36Z) - Adaptive Temporal Motion Guided Graph Convolution Network for Micro-expression Recognition [48.21696443824074]
ATM-GCN(Adaptive Temporal Motion Guided Graph Convolution Network)と呼ばれる,マイクロ圧縮認識のための新しいフレームワークを提案する。
本フレームワークは,クリップ全体のフレーム間の時間的依存関係の把握に優れ,クリップレベルでのマイクロ圧縮認識が向上する。
論文 参考訳(メタデータ) (2024-06-13T10:57:24Z) - Identity-free Artificial Emotional Intelligence via Micro-Gesture Understanding [21.94739567923136]
我々は、人体言語の特殊グループ、マイクロ・ジェスチャ(MG)に焦点を当てる。
MGは、意図的な行動ではなく、内的感情によって引き起こされる意図しない行動である。
本研究は,マイクロ・ジェスチャの微妙な空間的および短時間の時間的特性を考慮し,反復性を伴う様々な拡張戦略を探求し,より適切な拡張方法を決定する。
論文 参考訳(メタデータ) (2024-05-21T21:16:55Z) - Three-dimensional microstructure generation using generative adversarial
neural networks in the context of continuum micromechanics [77.34726150561087]
本研究は, 三次元マイクロ構造生成に適した生成対向ネットワークを提案する。
軽量アルゴリズムは、明示的な記述子を必要とせずに、単一のmicroCTスキャンから材料の基礎特性を学習することができる。
論文 参考訳(メタデータ) (2022-05-31T13:26:51Z) - Video-based Facial Micro-Expression Analysis: A Survey of Datasets,
Features and Algorithms [52.58031087639394]
マイクロ表現は不随意かつ過渡的な表情である。
嘘検出や犯罪検出など、幅広い応用において重要な情報を提供することができる。
マイクロ表現は過渡的で低強度であるため、検出と認識は困難であり、専門家の経験に大きく依存する。
論文 参考訳(メタデータ) (2022-01-30T05:14:13Z) - Short and Long Range Relation Based Spatio-Temporal Transformer for
Micro-Expression Recognition [61.374467942519374]
我々は,マイクロ圧縮認識のための最初の純粋トランスフォーマーベースアプローチである,新しいアテンポ的トランスフォーマーアーキテクチャを提案する。
空間パターンを学習する空間エンコーダと、時間的分析のための時間的次元分類と、ヘッドとを備える。
広範に使用されている3つの自発的マイクロ圧縮データセットに対する総合的な評価は,提案手法が一貫して芸術の状態を上回っていることを示している。
論文 参考訳(メタデータ) (2021-12-10T22:10:31Z) - Deep neural networks approach to microbial colony detection -- a
comparative analysis [52.77024349608834]
本稿では,AGARデータセットを用いた3つの深層学習手法の性能について検討する。
得られた結果は将来の実験のベンチマークとして機能するかもしれない。
論文 参考訳(メタデータ) (2021-08-23T12:06:00Z) - DisenKGAT: Knowledge Graph Embedding with Disentangled Graph Attention
Network [48.38954651216983]
本稿では,知識グラフのための新しいDistangled Knowledge Graph Attention Network (DisenKGAT)を提案する。
DisenKGATは、マイクロディケンジメントとマクロディケンジメントの両方を使用して、知識グラフの背後にある表現を利用する。
私たちの仕事は、様々なスコア関数に適応する強力な堅牢性と柔軟性を持っています。
論文 参考訳(メタデータ) (2021-08-22T04:10:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。