論文の概要: SEZ-HARN: Self-Explainable Zero-shot Human Activity Recognition Network
- arxiv url: http://arxiv.org/abs/2507.00050v1
- Date: Wed, 25 Jun 2025 02:10:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:58.146279
- Title: SEZ-HARN: Self-Explainable Zero-shot Human Activity Recognition Network
- Title(参考訳): SEZ-HARN: 自己説明可能なゼロショット人間活動認識ネットワーク
- Authors: Devin Y. De Silva, Sandareka Wickramanayake, Dulani Meedeniya, Sanka Rasnayaka,
- Abstract要約: HAR(Human Activity Recognition)は医療や生活支援に多くの応用がある。
現在のモデルは意思決定を説明するのに苦労し、透明性を損なう。
本稿では、SEZ-HARN(Self-Explainable Zero-shot Human Activity Recognition Network)と呼ばれる新しいIMUベースのZS-HARモデルを提案する。
- 参考スコア(独自算出の注目度): 2.236957801565796
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Human Activity Recognition (HAR), which uses data from Inertial Measurement Unit (IMU) sensors, has many practical applications in healthcare and assisted living environments. However, its use in real-world scenarios has been limited by the lack of comprehensive IMU-based HAR datasets that cover a wide range of activities and the lack of transparency in existing HAR models. Zero-shot HAR (ZS-HAR) overcomes the data limitations, but current models struggle to explain their decisions, making them less transparent. This paper introduces a novel IMU-based ZS-HAR model called the Self-Explainable Zero-shot Human Activity Recognition Network (SEZ-HARN). It can recognize activities not encountered during training and provide skeleton videos to explain its decision-making process. We evaluate the effectiveness of the proposed SEZ-HARN on four benchmark datasets PAMAP2, DaLiAc, HTD-MHAD and MHealth and compare its performance against three state-of-the-art black-box ZS-HAR models. The experiment results demonstrate that SEZ-HARN produces realistic and understandable explanations while achieving competitive Zero-shot recognition accuracy. SEZ-HARN achieves a Zero-shot prediction accuracy within 3\% of the best-performing black-box model on PAMAP2 while maintaining comparable performance on the other three datasets.
- Abstract(参考訳): 慣性計測ユニット(IMU)センサーのデータを利用するHAR(Human Activity Recognition)は、医療や生活環境に多くの実用的応用がある。
しかし、実際のシナリオでの使用は、広範囲のアクティビティをカバーする包括的なIMUベースのHARデータセットの欠如と、既存のHARモデルの透明性の欠如によって制限されている。
Zero-shot HAR(ZS-HAR)は、データ制限を克服するが、現在のモデルは、その決定を説明するのに苦労し、透明性を損なう。
本稿では、SEZ-HARN(Self-Explainable Zero-shot Human Activity Recognition Network)と呼ばれる新しいIMUベースのZS-HARモデルを提案する。
トレーニング中に遭遇しない活動を認識し、意思決定プロセスを説明するスケルトンビデオを提供する。
提案したSEZ-HARNを,PAMAP2,DaLiAc,HTD-MHAD,MHealthの4つのベンチマークデータセット上で評価し,その性能を最先端の3つのZS-HARモデルと比較した。
実験結果から,SEZ-HARNはゼロショット認識の精度を向上しつつ,現実的で理解可能な説明を生成することが示された。
SEZ-HARNは、他の3つのデータセットで同等の性能を維持しながら、PAMAP2上で最高のパフォーマンスのブラックボックスモデルの3倍の精度でゼロショット予測を行う。
関連論文リスト
- HAR-DoReMi: Optimizing Data Mixture for Self-Supervised Human Activity Recognition Across Heterogeneous IMU Datasets [4.32515027626613]
クロスデータセットのヒューマンアクティビティ認識(HAR)は、限られたモデル一般化に悩まされており、その実践的な展開を妨げている。
異種データセット間の認識性能の向上を目的とした,HARモデルの事前学習のためのデータ混合最適化手法を提案する。
Har-DoReMiは、現在の最先端の手法に比べて平均6.51%精度が向上し、データ使用量の約30%から50%しかありません。
論文 参考訳(メタデータ) (2025-03-16T04:31:58Z) - Contrastive Visual Data Augmentation [119.51630737874855]
大規模なマルチモーダルモデル(LMM)は、訓練済みの知識に依存し、微妙な視覚的詳細を捉える能力に制限があるため、しばしば新しい概念を認識するのに苦労する。
本稿では,LMMの視覚的特徴と言語との整合性を改善するために,Contrastive visual Data Augmentation(CoDA)戦略を提案する。
CoDAは、認識されていない既知の概念に対して、ターゲット概念の重要な対照的なテキスト的特徴と視覚的特徴を抽出し、ターゲットとなる合成データを生成するために、マルチモーダル生成モデルを使用する。
論文 参考訳(メタデータ) (2025-02-24T23:05:31Z) - DISCOVER: Data-driven Identification of Sub-activities via Clustering and Visualization for Enhanced Activity Recognition in Smart Homes [52.09869569068291]
本研究では,未ラベルセンサデータから詳細な人間のサブアクティビティを検出する手法であるdiscoVERについて,事前のセグメンテーションに頼ることなく紹介する。
広範に使用されているHARデータセットに対する再注釈演習を通じて,その効果を実証する。
論文 参考訳(メタデータ) (2025-02-11T20:02:24Z) - Human Activity Recognition Using Self-Supervised Representations of
Wearable Data [0.0]
HAR(Human Activity Recognition)のための正確なアルゴリズムの開発は、大規模な実世界のラベル付きデータセットの欠如によって妨げられている。
ここでは、トレーニング中に見えない実世界のデータセットで評価した場合、高い性能を有する6クラスHARモデルを開発する。
論文 参考訳(メタデータ) (2023-04-26T07:33:54Z) - Baby Physical Safety Monitoring in Smart Home Using Action Recognition
System [0.0]
本研究では,移動学習手法をConv2D LSTM層と組み合わせて,Kineeticsデータセット上の事前学習したI3Dモデルから特徴を抽出するフレームワークを提案する。
スマートベビールームにおける赤ちゃんの活動を認識し,予測するために,LSTM畳み込みとI3D(ConvLSTM-I3D)を用いたベンチマークデータセットと自動モデルを開発した。
論文 参考訳(メタデータ) (2022-10-22T19:00:14Z) - Efficient Deep Clustering of Human Activities and How to Improve
Evaluation [53.08810276824894]
我々は,ヒト活動の再コーグ・ニオン(HAR)のための新しい深層クラスタリングモデルを提案する。
本稿では,HARクラスタリングモデルがどのように評価されるかという,いくつかの異なる問題を取り上げる。
次に、これらの問題に対する解決策について議論し、将来の深層HARクラスタリングモデルに対する標準評価設定を提案する。
論文 参考訳(メタデータ) (2022-09-17T14:12:42Z) - Progressive Cross-modal Knowledge Distillation for Human Action
Recognition [10.269019492921306]
本稿では,ウェアラブルセンサを用いたHAR問題を解決するための,新しいプログレッシブ・骨格-センサ間知識蒸留(PSKD)モデルを提案する。
具体的には,教師(人間の骨格配列)と学生(時系列加速度計データ)の両方のデータを用いて,複数の教師モデルを構築した。
論文 参考訳(メタデータ) (2022-08-17T06:06:03Z) - Cross-modal Representation Learning for Zero-shot Action Recognition [67.57406812235767]
我々は、ゼロショット動作認識(ZSAR)のためのビデオデータとテキストラベルを共同で符号化するクロスモーダルトランスフォーマーベースのフレームワークを提案する。
我々のモデルは概念的に新しいパイプラインを使用し、視覚的表現と視覚的意味的関連をエンドツーエンドで学習する。
実験結果から,本モデルはZSARの芸術的状況に大きく改善され,UCF101,HMDB51,ActivityNetベンチマークデータセット上でトップ1の精度が向上した。
論文 参考訳(メタデータ) (2022-05-03T17:39:27Z) - How Knowledge Graph and Attention Help? A Quantitative Analysis into
Bag-level Relation Extraction [66.09605613944201]
バッグレベルの関係抽出(RE)における注意と知識グラフの効果を定量的に評価する。
その結果,(1)注目精度の向上は,エンティティ参照特徴を抽出するモデルの性能を損なう可能性があること,(2)注目性能は様々なノイズ分布パターンの影響が大きいこと,(3)KG強化された注目はRE性能を向上するが,その効果は注目度を向上させるだけでなく,先行するエンティティを組み込むことによっても改善することがわかった。
論文 参考訳(メタデータ) (2021-07-26T09:38:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。