論文の概要: Multi-level Contrast Network for Wearables-based Joint Activity
Segmentation and Recognition
- arxiv url: http://arxiv.org/abs/2208.07547v1
- Date: Tue, 16 Aug 2022 05:39:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-17 12:07:21.411472
- Title: Multi-level Contrast Network for Wearables-based Joint Activity
Segmentation and Recognition
- Title(参考訳): ウェアラブル用多レベルコントラストネットワーク : 関節活動セグメンテーションと認識
- Authors: Songpengcheng Xia, Lei Chu, Ling Pei, Wenxian Yu, Robert C. Qiu
- Abstract要約: ウェアラブルを用いたヒューマンアクティビティ認識(HAR)は、多くのスマートヘルスケアアプリケーションで広く採用可能な、有望な研究である。
ほとんどのHARアルゴリズムは、必要不可欠なが滅多に悪用されないマルチクラスウィンドウ問題の影響を受けやすい。
我々は,HARにセグメンテーション技術を導入し,共同活動セグメンテーションと認識を実現した。
- 参考スコア(独自算出の注目度): 10.828099015828693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human activity recognition (HAR) with wearables is promising research that
can be widely adopted in many smart healthcare applications. In recent years,
the deep learning-based HAR models have achieved impressive recognition
performance. However, most HAR algorithms are susceptible to the multi-class
windows problem that is essential yet rarely exploited. In this paper, we
propose to relieve this challenging problem by introducing the segmentation
technology into HAR, yielding joint activity segmentation and recognition.
Especially, we introduce the Multi-Stage Temporal Convolutional Network
(MS-TCN) architecture for sample-level activity prediction to joint segment and
recognize the activity sequence. Furthermore, to enhance the robustness of HAR
against the inter-class similarity and intra-class heterogeneity, a multi-level
contrastive loss, containing the sample-level and segment-level contrast, has
been proposed to learn a well-structured embedding space for better activity
segmentation and recognition performance. Finally, with comprehensive
experiments, we verify the effectiveness of the proposed method on two public
HAR datasets, achieving significant improvements in the various evaluation
metrics.
- Abstract(参考訳): ウェアラブルを用いたヒューマンアクティビティ認識(har)は、多くのスマートヘルスケアアプリケーションで広く採用される研究に有望である。
近年,ディープラーニングに基づくHARモデルは,音声認識性能が向上している。
しかし、ほとんどのHARアルゴリズムは、必要不可欠なが滅多に利用されないマルチクラスウィンドウ問題の影響を受けやすい。
本稿では,HARにセグメンテーション技術を導入し,共同活動セグメンテーションと認識を実現することで,この課題を解決することを提案する。
特に,多段時相畳み込みネットワーク(ms-tcn)アーキテクチャを導入して,関節セグメントに対するサンプルレベルの活動予測を行い,活動シーケンスを認識する。
さらに,クラス間類似性とクラス内不均一性に対するharのロバスト性を高めるために,サンプルレベルとセグメントレベルのコントラストを含むマルチレベルコントラスト損失が,アクティビティセグメンテーションと認識性能を改善するための構造的埋め込み空間を学習するために提案されている。
最後に,提案手法の有効性を2つの公開HARデータセットで検証し,各種評価指標の大幅な改善を実現した。
関連論文リスト
- Wearable-based behaviour interpolation for semi-supervised human activity recognition [27.895342617584085]
我々は,ラベル付きアクティビティと非ラベル付きアクティビティを同時に使用する,深層半教師付きヒューマンアクティビティ認識(HAR)アプローチであるMixHARを導入する。
以上の結果から,MixHARはHARにおける深層半教師技術の可能性を示すとともに,性能を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-05-24T22:21:24Z) - Auxiliary Tasks Enhanced Dual-affinity Learning for Weakly Supervised
Semantic Segmentation [79.05949524349005]
AuxSegNet+は、サリエンシマップから豊富な情報を探索する弱教師付き補助学習フレームワークである。
また,サリエンシとセグメンテーションの特徴マップから画素レベルの親和性を学習するためのクロスタスク親和性学習機構を提案する。
論文 参考訳(メタデータ) (2024-03-02T10:03:21Z) - MST: Adaptive Multi-Scale Tokens Guided Interactive Segmentation [8.46894039954642]
対話型セグメンテーションのための新しいマルチスケールトークン適応アルゴリズムを提案する。
マルチスケールトークンでトップk演算を行うことで、計算の複雑さが大幅に単純化される。
また,コントラスト損失に基づくトークン学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-09T07:59:42Z) - Timestamp-supervised Wearable-based Activity Segmentation and
Recognition with Contrastive Learning and Order-Preserving Optimal Transport [11.837401473598288]
本稿では,タイムスタンプによる協調活動のセグメンテーションと認識のための新しい手法を提案する。
プロトタイプはクラスアクティベーションマップによって推定され、サンプル-プロトタイプコントラストモジュールを形成する。
4つの公開HARデータセットに関する総合的な実験により、タイムスタンプの監督で訓練されたモデルが、最先端の弱い教師付き手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-10-13T14:00:49Z) - Contrastive Learning with Cross-Modal Knowledge Mining for Multimodal
Human Activity Recognition [1.869225486385596]
複数のモダリティを活用することによって、より良い認識がもたらされるという仮説を探求する。
我々は、近年、人間活動認識の課題に対して、多くの対照的な自己監督的アプローチを拡張している。
マルチモーダルな自己教師型学習を実現するための,フレキシブルで汎用的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-20T10:39:16Z) - Consistency and Diversity induced Human Motion Segmentation [231.36289425663702]
本稿では,CDMS(Consistency and Diversity induced Human Motion)アルゴリズムを提案する。
我々のモデルは、ソースとターゲットデータを異なる多層特徴空間に分解する。
ソースとターゲットデータ間の領域ギャップを低減するために、マルチミューチュアル学習戦略を実行する。
論文 参考訳(メタデータ) (2022-02-10T06:23:56Z) - Few-Shot Fine-Grained Action Recognition via Bidirectional Attention and
Contrastive Meta-Learning [51.03781020616402]
現実世界のアプリケーションで特定のアクション理解の需要が高まっているため、きめ細かいアクション認識が注目を集めている。
そこで本研究では,各クラスに付与されるサンプル数だけを用いて,新規なきめ細かい動作を認識することを目的とした,数発のきめ細かな動作認識問題を提案する。
粒度の粗い動作では進展があったが、既存の数発の認識手法では、粒度の細かい動作を扱う2つの問題に遭遇する。
論文 参考訳(メタデータ) (2021-08-15T02:21:01Z) - Leveraging Auxiliary Tasks with Affinity Learning for Weakly Supervised
Semantic Segmentation [88.49669148290306]
そこで我々はAuxSegNetと呼ばれる弱教師付きマルチタスク・フレームワークを提案し,サリエンシ検出とマルチラベル画像分類を補助タスクとして活用する。
同様の構造的セマンティクスに着想を得て,サリエンシとセグメンテーションの表現から,クロスタスクなグローバル画素レベルの親和性マップを学習することを提案する。
学習されたクロスタスク親和性は、両方のタスクに対して改善された擬似ラベルを提供するために、唾液度予測を洗練し、CAMマップを伝播するために使用することができる。
論文 参考訳(メタデータ) (2021-07-25T11:39:58Z) - Attend And Discriminate: Beyond the State-of-the-Art for Human Activity
Recognition using Wearable Sensors [22.786406177997172]
ウェアラブルは、人間の活動に対する理解を改善するための基本です。
我々は、豊かで高度に差別化された活動表現を学ぶための新しい機会を精力的に探求する。
我々の貢献は4つの多様な活動認識問題ベンチマークにおいて、最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-07-14T16:44:16Z) - Spectrum-Guided Adversarial Disparity Learning [52.293230153385124]
本稿では,新たなエンド・ツー・エンドの知識指向学習フレームワークを提案する。
2つの競合符号化分布を用いてクラス条件付きクラス内不一致を表現し、学習された不一致を識別することで精製された潜伏符号を学習する。
4つのHARベンチマークデータセットに対する実験により,提案手法の頑健性と,最先端の手法による一般化が実証された。
論文 参考訳(メタデータ) (2020-07-14T05:46:27Z) - Heterogeneous Network Representation Learning: A Unified Framework with
Survey and Benchmark [57.10850350508929]
我々は、異種ネットワーク埋め込み(HNE)に関する既存の研究を要約し、評価するための統一的なフレームワークを提供することを目指している。
最初のコントリビューションとして、既存のHNEアルゴリズムのメリットを体系的に分類し分析するための一般的なパラダイムを提供する。
第2のコントリビューションとして、さまざまなソースから、スケール、構造、属性/ラベルの可用性などに関するさまざまな特性を備えた4つのベンチマークデータセットを作成します。
第3のコントリビューションとして、13の人気のあるHNEアルゴリズムに対するフレンドリなインターフェースを作成し、複数のタスクと実験的な設定に対して、それらの全周比較を提供する。
論文 参考訳(メタデータ) (2020-04-01T03:42:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。