論文の概要: "Filling the Blanks'': Identifying Micro-activities that Compose Complex
Human Activities of Daily Living
- arxiv url: http://arxiv.org/abs/2306.13149v2
- Date: Wed, 7 Feb 2024 23:08:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-10 03:19:22.876309
- Title: "Filling the Blanks'': Identifying Micro-activities that Compose Complex
Human Activities of Daily Living
- Title(参考訳): 「空白を満たす」--日常生活の複雑な人間活動を構成するマイクロアクティビティの同定
- Authors: Soumyajit Chatterjee, Bivas Mitra and Sandip Chakraborty
- Abstract要約: AmicroNは、粗粒度のアノテートデータを利用して、マクロ活性を構成されたマイクロアクティビティに拡張することで、トップダウンのアプローチに適応する。
バックエンドでは、AmicroNはテキスト制御された変更点検出を使用して、複雑なADLのマイクロアクティビティ境界を探索する。
AmicroNがマイクロFtextsubscript1-score $>0.75$で両方のデータセットに対してマイクロアクティビティを識別できることを確認する。
- 参考スコア(独自算出の注目度): 6.841115530838644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Complex activities of daily living (ADLs) often consist of multiple
micro-activities. When performed sequentially, these micro-activities help the
user accomplish the broad macro-activity. Naturally, a deeper understanding of
these micro-activities can help develop more sophisticated human activity
recognition (HAR) models and add explainability to their inferred conclusions.
Previous research has attempted to achieve this by utilizing fine-grained
annotated data that provided the required supervision and rules for associating
the micro-activities to identify the macro-activity. However, this
``bottom-up'' approach is unrealistic as getting such high-quality,
fine-grained annotated sensor datasets is challenging, costly, and
time-consuming. Understanding this, in this paper, we develop AmicroN, which
adapts a ``top-down'' approach by exploiting coarse-grained annotated data to
expand the macro-activities into their constituent micro-activities without any
external supervision. In the backend, AmicroN uses \textit{unsupervised}
change-point detection to search for the micro-activity boundaries across a
complex ADL. Then, it applies a \textit{generalized zero-shot} approach to
characterize it. We evaluate AmicroN on two real-life publicly available
datasets and observe that AmicroN can identify the micro-activities with micro
F\textsubscript{1}-score $>0.75$ for both datasets. Additionally, we also
perform an initial proof-of-concept on leveraging the state-of-the-art (SOTA)
large language models (LLMs) with attribute embeddings predicted by AmicroN to
enhance further the explainability surrounding the detection of
micro-activities.
- Abstract(参考訳): 日常生活(adls)の複雑な活動は、しばしば複数のマイクロ活性からなる。
順次実行すると、これらのマイクロアクティビティは、ユーザが幅広いマクロアクティビティを達成するのに役立つ。
当然、これらの微小活動の深い理解は、より洗練された人間の活動認識(HAR)モデルを開発し、推論された結論に説明可能性を加えるのに役立つ。
これまでの研究では、マクロ活性を識別するためにマイクロアクティビティに関連付けるために必要な監督とルールを提供する、微粒な注釈付きデータを利用することで、これを達成しようとした。
しかし、この‘bottom-up’アプローチは非現実的であり、このような高品質できめ細かいアノテートされたセンサデータセットを取得することは困難で、コストがかかり、時間がかかります。
そこで本稿では,粒度の粗いアノテートデータを利用して,外部の監督なしにマクロアクティビティを構成マイクロアクティビティに拡張する手法であるamicronを開発した。
バックエンドでは、AmicroNは‘textit{unsupervised} change-point detection’を使用して、複雑なADLを越えてマイクロアクティビティ境界を探索する。
次に、それを特徴付けるために \textit{generalized zero-shot} アプローチを適用する。
我々は、AmicroNを2つのリアルタイム公開データセットで評価し、AmicroNがマイクロF\textsubscript{1}-score $>0.75$でマイクロアクティビティを識別できることを観察した。
さらに,AmicroNが予測した属性埋め込みにより,SOTA(State-of-the-art)大言語モデル(LLM)を活用する上で,概念実証を行う。
関連論文リスト
- MMAD: Multi-label Micro-Action Detection in Videos [23.508563348306534]
MMAD(Multi-label Micro-Action Detection)と呼ばれる新しいタスクを提案する。
MMADは、与えられたショートビデオ内のすべてのマイクロアクションを特定し、開始時間と終了時間を決定し、それらを分類する。
MMADタスクを支援するために,MMA-52(Multi-label Micro-Action-52)と呼ばれる新しいデータセットを導入する。
論文 参考訳(メタデータ) (2024-07-07T09:45:14Z) - VCHAR:Variance-Driven Complex Human Activity Recognition framework with Generative Representation [6.278293754210117]
VCHAR(Variance-Driven Complex Human Activity Recognition)は、原子活動の出力を特定の間隔での分布として扱う新しいフレームワークである。
VCHARは、原子活動の正確な時間的・シーケンシャルなラベル付けを必要とせず、複雑な活動認識の精度を高める。
論文 参考訳(メタデータ) (2024-07-03T17:24:36Z) - Adaptive Temporal Motion Guided Graph Convolution Network for Micro-expression Recognition [48.21696443824074]
ATM-GCN(Adaptive Temporal Motion Guided Graph Convolution Network)と呼ばれる,マイクロ圧縮認識のための新しいフレームワークを提案する。
本フレームワークは,クリップ全体のフレーム間の時間的依存関係の把握に優れ,クリップレベルでのマイクロ圧縮認識が向上する。
論文 参考訳(メタデータ) (2024-06-13T10:57:24Z) - Identity-free Artificial Emotional Intelligence via Micro-Gesture Understanding [21.94739567923136]
我々は、人体言語の特殊グループ、マイクロ・ジェスチャ(MG)に焦点を当てる。
MGは、意図的な行動ではなく、内的感情によって引き起こされる意図しない行動である。
本研究は,マイクロ・ジェスチャの微妙な空間的および短時間の時間的特性を考慮し,反復性を伴う様々な拡張戦略を探求し,より適切な拡張方法を決定する。
論文 参考訳(メタデータ) (2024-05-21T21:16:55Z) - Three-dimensional microstructure generation using generative adversarial
neural networks in the context of continuum micromechanics [77.34726150561087]
本研究は, 三次元マイクロ構造生成に適した生成対向ネットワークを提案する。
軽量アルゴリズムは、明示的な記述子を必要とせずに、単一のmicroCTスキャンから材料の基礎特性を学習することができる。
論文 参考訳(メタデータ) (2022-05-31T13:26:51Z) - Video-based Facial Micro-Expression Analysis: A Survey of Datasets,
Features and Algorithms [52.58031087639394]
マイクロ表現は不随意かつ過渡的な表情である。
嘘検出や犯罪検出など、幅広い応用において重要な情報を提供することができる。
マイクロ表現は過渡的で低強度であるため、検出と認識は困難であり、専門家の経験に大きく依存する。
論文 参考訳(メタデータ) (2022-01-30T05:14:13Z) - Short and Long Range Relation Based Spatio-Temporal Transformer for
Micro-Expression Recognition [61.374467942519374]
我々は,マイクロ圧縮認識のための最初の純粋トランスフォーマーベースアプローチである,新しいアテンポ的トランスフォーマーアーキテクチャを提案する。
空間パターンを学習する空間エンコーダと、時間的分析のための時間的次元分類と、ヘッドとを備える。
広範に使用されている3つの自発的マイクロ圧縮データセットに対する総合的な評価は,提案手法が一貫して芸術の状態を上回っていることを示している。
論文 参考訳(メタデータ) (2021-12-10T22:10:31Z) - Deep neural networks approach to microbial colony detection -- a
comparative analysis [52.77024349608834]
本稿では,AGARデータセットを用いた3つの深層学習手法の性能について検討する。
得られた結果は将来の実験のベンチマークとして機能するかもしれない。
論文 参考訳(メタデータ) (2021-08-23T12:06:00Z) - DisenKGAT: Knowledge Graph Embedding with Disentangled Graph Attention
Network [48.38954651216983]
本稿では,知識グラフのための新しいDistangled Knowledge Graph Attention Network (DisenKGAT)を提案する。
DisenKGATは、マイクロディケンジメントとマクロディケンジメントの両方を使用して、知識グラフの背後にある表現を利用する。
私たちの仕事は、様々なスコア関数に適応する強力な堅牢性と柔軟性を持っています。
論文 参考訳(メタデータ) (2021-08-22T04:10:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。