論文の概要: CLAN: A Contrastive Learning based Novelty Detection Framework for Human
Activity Recognition
- arxiv url: http://arxiv.org/abs/2401.10288v1
- Date: Wed, 17 Jan 2024 03:57:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 18:06:50.939152
- Title: CLAN: A Contrastive Learning based Novelty Detection Framework for Human
Activity Recognition
- Title(参考訳): CLAN:人間活動認識のための対照的学習に基づくノベルティ検出フレームワーク
- Authors: Hyunju Kim and Dongman Lee
- Abstract要約: CLANは、人間の活動認識のための2段階のコントラスト学習に基づく新規性検出フレームワークである。
それは、時間的および周波数的特徴の重要さを含む、人間の活動特性に関する課題に合わせたものである。
4つの実世界の人間活動データセットの実験により、CLANは既存の新規性検出手法の最高の性能を上回っていることが示された。
- 参考スコア(独自算出の注目度): 3.0108863071498035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In ambient assisted living, human activity recognition from time series
sensor data mainly focuses on predefined activities, often overlooking new
activity patterns. We propose CLAN, a two-tower contrastive learning-based
novelty detection framework with diverse types of negative pairs for human
activity recognition. It is tailored to challenges with human activity
characteristics, including the significance of temporal and frequency features,
complex activity dynamics, shared features across activities, and sensor
modality variations. The framework aims to construct invariant representations
of known activity robust to the challenges. To generate suitable negative
pairs, it selects data augmentation methods according to the temporal and
frequency characteristics of each dataset. It derives the key representations
against meaningless dynamics by contrastive and classification losses-based
representation learning and score function-based novelty detection that
accommodate dynamic numbers of the different types of augmented samples. The
proposed two-tower model extracts the representations in terms of time and
frequency, mutually enhancing expressiveness for distinguishing between new and
known activities, even when they share common features. Experiments on four
real-world human activity datasets show that CLAN surpasses the best
performance of existing novelty detection methods, improving by 8.3%, 13.7%,
and 53.3% in AUROC, balanced accuracy, and FPR@TPR0.95 metrics respectively.
- Abstract(参考訳): 環境支援生活において、時系列センサデータからの人間の活動認識は主に事前定義された活動に焦点を当て、しばしば新しい活動パターンを見渡す。
CLANは,人間の活動認識のためのネガティブなペアの多種多様さを持つ,2towerのコントラスト学習に基づく新規性検出フレームワークである。
時間的・周波数的特徴の意義、複雑な活動のダイナミクス、活動間での共有機能、センサーモダリティのバリエーションなど、人間の活動特性の課題に合わせて調整されている。
このフレームワークは、課題に頑健な既知のアクティビティの不変表現を構築することを目的としている。
適切な負のペアを生成するために、データセットの時間的および周波数的特性に応じてデータ拡張方法を選択する。
比較的および分類的損失に基づく表現学習と、異なる種類の強化サンプルの動的数に対応する関数に基づく新規性検出によって、無意味なダイナミクスに対するキー表現を導出する。
提案手法は時間と周波数の表現を抽出し,共通特徴を共有した場合でも,新しい活動と既知の活動を区別するための表現性を相互に強化する。
4つの実世界のヒューマンアクティビティデータセットの実験により、clanは既存のノベルティ検出手法の最高の性能を超え、それぞれ8.3%、13.7%、53.3%のauroc、 balanced accuracy、fpr@tpr0.95メトリクスを改善した。
関連論文リスト
- Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - Dataset Bias in Human Activity Recognition [57.91018542715725]
このコントリビューションは、トレーニングデータを統計的にキュレートし、人間の身体的特性がHARのパフォーマンスにどの程度影響するかを評価する。
時系列HARのセンサ,アクティビティ,記録の異なる2つのHARデータセット上で,最先端の畳み込みニューラルネットワークの性能を評価する。
論文 参考訳(メタデータ) (2023-01-19T12:33:50Z) - DisenHCN: Disentangled Hypergraph Convolutional Networks for
Spatiotemporal Activity Prediction [53.76601630407521]
本稿では,既存のソリューションのギャップを埋めるために,DistenHCNと呼ばれるハイパーグラフネットワークモデルを提案する。
特に,ユーザの好みと時間的活動の複雑なマッチングをヘテロジニアスなハイパーグラフにまとめる。
次に、ユーザ表現を異なる側面(位置認識、時間認識、活動認識)に切り離し、構築したハイパーグラフ上に対応するアスペクトの特徴を集約する。
論文 参考訳(メタデータ) (2022-08-14T06:51:54Z) - UMSNet: An Universal Multi-sensor Network for Human Activity Recognition [10.952666953066542]
本稿では,人間行動認識のためのユニバーサルマルチセンサネットワーク(UMSNet)を提案する。
特に,新しい軽量センサ残差ブロック(LSRブロック)を提案する。
我々のフレームワークは明確な構造を持ち、様々な種類のマルチモーダル時系列分類タスクに直接適用することができる。
論文 参考訳(メタデータ) (2022-05-24T03:29:54Z) - A Novel Skeleton-Based Human Activity Discovery Technique Using Particle
Swarm Optimization with Gaussian Mutation [0.0]
人間の活動発見は、各活動の定義に関する事前情報なしで、人間が行う活動を区別することを目的としている。
本稿では,3次元骨格配列における人間の活動探索を行うために,新しい非教師的手法を提案する。
3つのデータセットについて実験を行い,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2022-01-14T06:28:38Z) - Generative Partial Visual-Tactile Fused Object Clustering [81.17645983141773]
オブジェクトクラスタリングのためのGenerative Partial Visual-Tactile Fused(GPVTF)フレームワークを提案する。
条件付きクロスモーダルクラスタリング生成逆ネットワークを開発し、一方のモダリティ条件を他方のモダリティ上で合成する。
最後に、擬似ラベルに基づく2つのKL分割損失を用いて、対応するモダリティ固有エンコーダを更新する。
論文 参考訳(メタデータ) (2020-12-28T02:37:03Z) - A Tree-structure Convolutional Neural Network for Temporal Features
Exaction on Sensor-based Multi-resident Activity Recognition [4.619245607612873]
マルチレジデント活動認識(TSC-MRAR)のためのエンドツーエンド木構造畳み込みニューラルネットワークフレームワークを提案する。
まず、各サンプルをイベントとして扱い、スライディングウインドウに過去のセンサの読み取りを埋め込んだ現在のイベントを得る。
そして、時間的特徴を自動的に生成するために、木構造ネットワークを設計し、近くの読み物の時間的依存を導出する。
論文 参考訳(メタデータ) (2020-11-05T14:31:00Z) - Sequential Weakly Labeled Multi-Activity Localization and Recognition on
Wearable Sensors using Recurrent Attention Networks [13.64024154785943]
本稿では,逐次的にラベル付けされたマルチアクティビティ認識と位置情報タスクを処理するために,RAN(Recurrent attention network)を提案する。
我々のRANモデルは、粗粒度シーケンシャルな弱いラベルからマルチアクティビティータイプを同時に推測することができる。
手動ラベリングの負担を大幅に軽減する。
論文 参考訳(メタデータ) (2020-04-13T04:57:09Z) - Human Activity Recognition from Wearable Sensor Data Using
Self-Attention [2.9023633922848586]
本稿では,身体のセンサデータから行動認識のための自己認識型ニューラルネットワークモデルを提案する。
一般に公開されている4つのHARデータセット、PAMAP2、Opportunity、Skoda、USC-HADについて実験を行った。
ベンチマークテスト対象とLeave-out-subject評価の両方において,最近の最先端モデルよりも高い性能向上を実現している。
論文 参考訳(メタデータ) (2020-03-17T14:16:57Z) - ZSTAD: Zero-Shot Temporal Activity Detection [107.63759089583382]
本研究では,ゼロショット時間的活動検出(ZSTAD)と呼ばれる新たなタスク設定を提案する。
このソリューションのアーキテクチャとして,R-C3Dに基づくエンドツーエンドのディープネットワークを設計する。
THUMOS14とCharadesデータセットの両方の実験は、目に見えない活動を検出するという点で有望なパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-03-12T02:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。