論文の概要: VCHAR:Variance-Driven Complex Human Activity Recognition framework with Generative Representation
- arxiv url: http://arxiv.org/abs/2407.03291v1
- Date: Wed, 3 Jul 2024 17:24:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 13:05:47.130177
- Title: VCHAR:Variance-Driven Complex Human Activity Recognition framework with Generative Representation
- Title(参考訳): VCHAR:生成表現を用いた可変駆動型複合人間活動認識フレームワーク
- Authors: Yuan Sun, Navid Salami Pargoo, Taqiya Ehsan, Zhao Zhang Jorge Ortiz,
- Abstract要約: VCHAR(Variance-Driven Complex Human Activity Recognition)は、原子活動の出力を特定の間隔での分布として扱う新しいフレームワークである。
VCHARは、原子活動の正確な時間的・シーケンシャルなラベル付けを必要とせず、複雑な活動認識の精度を高める。
- 参考スコア(独自算出の注目度): 1.7993976507514193
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Complex human activity recognition (CHAR) remains a pivotal challenge within ubiquitous computing, especially in the context of smart environments. Existing studies typically require meticulous labeling of both atomic and complex activities, a task that is labor-intensive and prone to errors due to the scarcity and inaccuracies of available datasets. Most prior research has focused on datasets that either precisely label atomic activities or, at minimum, their sequence approaches that are often impractical in real world settings.In response, we introduce VCHAR (Variance-Driven Complex Human Activity Recognition), a novel framework that treats the outputs of atomic activities as a distribution over specified intervals. Leveraging generative methodologies, VCHAR elucidates the reasoning behind complex activity classifications through video-based explanations, accessible to users without prior machine learning expertise. Our evaluation across three publicly available datasets demonstrates that VCHAR enhances the accuracy of complex activity recognition without necessitating precise temporal or sequential labeling of atomic activities. Furthermore, user studies confirm that VCHAR's explanations are more intelligible compared to existing methods, facilitating a broader understanding of complex activity recognition among non-experts.
- Abstract(参考訳): 複雑なヒューマンアクティビティ認識(CHAR)は、ユビキタスコンピューティング、特にスマート環境における重要な課題である。
既存の研究は通常、原子活動と複雑な活動の両方を綿密にラベル付けする必要がある。
これまでのほとんどの研究は、原子活動の正確なラベル付けを行うデータセットや、実世界の環境では非現実的なシーケンスアプローチに重点を置いてきた。それに対して、我々は、原子活動のアウトプットを指定された間隔の分布として扱う新しいフレームワークであるVCHAR(Variance-Driven Complex Human Activity Recognition)を紹介した。
生成方法論を活用することで、VCHARは、ビデオベースの説明を通じて複雑なアクティビティ分類の背後にある理由を解明する。
VCHARは、原子活動の正確な時間的・シーケンシャルなラベル付けを必要とせず、複雑な活動認識の精度を高めることを示す。
さらに、ユーザ研究により、VCHARの説明は既存の手法よりも理解しやすいことが確認され、非専門家の間での複雑な活動認識のより広範な理解が促進される。
関連論文リスト
- SoK: Behind the Accuracy of Complex Human Activity Recognition Using Deep Learning [4.580983642743026]
HAR(Human Activity Recognition)は1980年代にさかのぼる研究分野である。
本稿では,データバージョニングやモデルキャパシティといった複雑なHARの不正確性につながる要因を包括的に体系化する。
論文 参考訳(メタデータ) (2024-04-25T10:07:56Z) - Action-slot: Visual Action-centric Representations for Multi-label Atomic Activity Recognition in Traffic Scenes [23.284478293459856]
Action-Slotは、視覚的なアクション中心の表現を学ぶスロットアテンションベースのアプローチである。
私たちのキーとなるアイデアは、原子活動が起こる領域に注意を払うことができるアクションスロットを設計することです。
この制限に対処するため,OATSより4倍大きいTACOという合成データセットを収集した。
論文 参考訳(メタデータ) (2023-11-29T05:28:05Z) - Sample-Efficient Reinforcement Learning in the Presence of Exogenous
Information [77.19830787312743]
実世界の強化学習アプリケーションでは、学習者の観察空間は、その課題に関する関連情報と無関係情報の両方でユビキタスに高次元である。
本稿では,強化学習のための新しい問題設定法であるExogenous Decision Process (ExoMDP)を導入する。
内因性成分の大きさのサンプル複雑度で準最適ポリシーを学習するアルゴリズムであるExoRLを提案する。
論文 参考訳(メタデータ) (2022-06-09T05:19:32Z) - Human Activity Recognition on wrist-worn accelerometers using
self-supervised neural networks [0.0]
日常生活活動の指標 (ADL) は, 健康の指標として重要であるが, 生体内測定は困難である。
本稿では,加速度センサデータの頑健な表現をデバイスや対象に対して一般化するための自己教師付き学習パラダイムを提案する。
また,連続した実生活データに対して,有意な活動のセグメントを同定し,HARの精度を高めるセグメンテーションアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-22T23:35:20Z) - Single-Modal Entropy based Active Learning for Visual Question Answering [75.1682163844354]
視覚質問応答(VQA)のマルチモーダル設定におけるアクティブラーニングに対処する
マルチモーダルな入力,画像,質問を考慮し,有効サンプル取得のための新しい手法を提案する。
私たちの新しいアイデアは、実装が簡単で、コスト効率が高く、他のマルチモーダルタスクにも容易に適応できます。
論文 参考訳(メタデータ) (2021-10-21T05:38:45Z) - Contrastive Predictive Coding for Human Activity Recognition [5.766384728949437]
本研究では,センサデータストリームの長期的時間構造をキャプチャする人間行動認識にContrastive Predictive Codingフレームワークを導入する。
CPCベースの事前学習は自己管理され、その結果得られた表現は標準のアクティビティチェーンに統合できる。
少量のラベル付きトレーニングデータしか利用できない場合、認識性能が大幅に向上します。
論文 参考訳(メタデータ) (2020-12-09T21:44:36Z) - Semi-Supervised Few-Shot Atomic Action Recognition [59.587738451616495]
半教師付き数発のアトミック・アクション認識のための新しいモデルを提案する。
我々のモデルは、教師なしおよびコントラスト付きビデオ埋め込み、ゆるやかなアクションアライメント、マルチヘッド特徴比較、アテンションベースのアグリゲーションを特徴としている。
実験により,本モデルは,それぞれの最先端の分類精度よりも高い精度を全監督条件下で達成できることが確認された。
論文 参考訳(メタデータ) (2020-11-17T03:59:05Z) - Inferring Temporal Compositions of Actions Using Probabilistic Automata [61.09176771931052]
本稿では,動作の時間的構成を意味正規表現として表現し,確率的オートマトンを用いた推論フレームワークを提案する。
我々のアプローチは、長い範囲の複雑なアクティビティを、順序のないアトミックアクションのセットとして予測するか、自然言語文を使ってビデオを取得するという既存の研究とは異なる。
論文 参考訳(メタデータ) (2020-04-28T00:15:26Z) - Sequential Weakly Labeled Multi-Activity Localization and Recognition on
Wearable Sensors using Recurrent Attention Networks [13.64024154785943]
本稿では,逐次的にラベル付けされたマルチアクティビティ認識と位置情報タスクを処理するために,RAN(Recurrent attention network)を提案する。
我々のRANモデルは、粗粒度シーケンシャルな弱いラベルからマルチアクティビティータイプを同時に推測することができる。
手動ラベリングの負担を大幅に軽減する。
論文 参考訳(メタデータ) (2020-04-13T04:57:09Z) - Mining Implicit Entity Preference from User-Item Interaction Data for
Knowledge Graph Completion via Adversarial Learning [82.46332224556257]
本稿では,知識グラフ補完タスクにおけるユーザインタラクションデータを活用することで,新たな逆学習手法を提案する。
我々のジェネレータはユーザインタラクションデータから分離されており、識別器の性能を向上させるのに役立ちます。
利用者の暗黙の実体的嗜好を発見するために,グラフニューラルネットワークに基づく精巧な協調学習アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-03-28T05:47:33Z) - Uncertainty Quantification for Deep Context-Aware Mobile Activity
Recognition and Unknown Context Discovery [85.36948722680822]
我々はα-βネットワークと呼ばれる深層モデルのコンテキスト認識混合を開発する。
高レベルの文脈を識別することで、精度とFスコアを10%向上させる。
トレーニングの安定性を確保するために、公開データセットと社内データセットの両方でクラスタリングベースの事前トレーニングを使用しました。
論文 参考訳(メタデータ) (2020-03-03T19:35:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。