論文の概要: CLAN: A Contrastive Learning based Novelty Detection Framework for Human
Activity Recognition
- arxiv url: http://arxiv.org/abs/2401.10288v1
- Date: Wed, 17 Jan 2024 03:57:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-01-22 18:06:50.939152
- Title: CLAN: A Contrastive Learning based Novelty Detection Framework for Human
Activity Recognition
- Title(参考訳): CLAN:人間活動認識のための対照的学習に基づくノベルティ検出フレームワーク
- Authors: Hyunju Kim and Dongman Lee
- Abstract要約: CLANは、人間の活動認識のための2段階のコントラスト学習に基づく新規性検出フレームワークである。
それは、時間的および周波数的特徴の重要さを含む、人間の活動特性に関する課題に合わせたものである。
4つの実世界の人間活動データセットの実験により、CLANは既存の新規性検出手法の最高の性能を上回っていることが示された。
- 参考スコア(独自算出の注目度): 3.0108863071498035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In ambient assisted living, human activity recognition from time series
sensor data mainly focuses on predefined activities, often overlooking new
activity patterns. We propose CLAN, a two-tower contrastive learning-based
novelty detection framework with diverse types of negative pairs for human
activity recognition. It is tailored to challenges with human activity
characteristics, including the significance of temporal and frequency features,
complex activity dynamics, shared features across activities, and sensor
modality variations. The framework aims to construct invariant representations
of known activity robust to the challenges. To generate suitable negative
pairs, it selects data augmentation methods according to the temporal and
frequency characteristics of each dataset. It derives the key representations
against meaningless dynamics by contrastive and classification losses-based
representation learning and score function-based novelty detection that
accommodate dynamic numbers of the different types of augmented samples. The
proposed two-tower model extracts the representations in terms of time and
frequency, mutually enhancing expressiveness for distinguishing between new and
known activities, even when they share common features. Experiments on four
real-world human activity datasets show that CLAN surpasses the best
performance of existing novelty detection methods, improving by 8.3%, 13.7%,
and 53.3% in AUROC, balanced accuracy, and FPR@TPR0.95 metrics respectively.
- Abstract(参考訳): 環境支援生活において、時系列センサデータからの人間の活動認識は主に事前定義された活動に焦点を当て、しばしば新しい活動パターンを見渡す。
CLANは,人間の活動認識のためのネガティブなペアの多種多様さを持つ,2towerのコントラスト学習に基づく新規性検出フレームワークである。
時間的・周波数的特徴の意義、複雑な活動のダイナミクス、活動間での共有機能、センサーモダリティのバリエーションなど、人間の活動特性の課題に合わせて調整されている。
このフレームワークは、課題に頑健な既知のアクティビティの不変表現を構築することを目的としている。
適切な負のペアを生成するために、データセットの時間的および周波数的特性に応じてデータ拡張方法を選択する。
比較的および分類的損失に基づく表現学習と、異なる種類の強化サンプルの動的数に対応する関数に基づく新規性検出によって、無意味なダイナミクスに対するキー表現を導出する。
提案手法は時間と周波数の表現を抽出し,共通特徴を共有した場合でも,新しい活動と既知の活動を区別するための表現性を相互に強化する。
4つの実世界のヒューマンアクティビティデータセットの実験により、clanは既存のノベルティ検出手法の最高の性能を超え、それぞれ8.3%、13.7%、53.3%のauroc、 balanced accuracy、fpr@tpr0.95メトリクスを改善した。
関連論文リスト
- Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - A Matter of Annotation: An Empirical Study on In Situ and Self-Recall Activity Annotations from Wearable Sensors [56.554277096170246]
In-the-wildデータ収集に焦点をあてたユーザスタディにおいて,一般的な4つのアノテーション手法の評価と対比を行う実験的検討を行った。
実際の記録プロセス中に参加者がアノテートするユーザ主導のin situアノテーションと、各日の終わりに参加者が振り返ってアノテートするリコールメソッドの両方に対して、参加者は自身のアクティビティクラスと対応するラベルを選択できる柔軟性を持っていた。
論文 参考訳(メタデータ) (2023-05-15T16:02:56Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - Dataset Bias in Human Activity Recognition [57.91018542715725]
このコントリビューションは、トレーニングデータを統計的にキュレートし、人間の身体的特性がHARのパフォーマンスにどの程度影響するかを評価する。
時系列HARのセンサ,アクティビティ,記録の異なる2つのHARデータセット上で,最先端の畳み込みニューラルネットワークの性能を評価する。
論文 参考訳(メタデータ) (2023-01-19T12:33:50Z) - Responsible Active Learning via Human-in-the-loop Peer Study [88.01358655203441]
我々は,データプライバシを同時に保持し,モデルの安定性を向上させるために,Pear Study Learning (PSL) と呼ばれる責任あるアクティブラーニング手法を提案する。
まず,クラウドサイドのタスク学習者(教師)から未学習データを分離する。
トレーニング中、タスク学習者は軽量なアクティブ学習者に指示し、アクティブサンプリング基準に対するフィードバックを提供する。
論文 参考訳(メタデータ) (2022-11-24T13:18:27Z) - TASKED: Transformer-based Adversarial learning for human activity
recognition using wearable sensors via Self-KnowledgE Distillation [6.458496335718508]
本稿では,TASKED(Self-KnowledgE Distillation)を用いたウェアラブルセンサを用いた,トランスフォーマーに基づく人間行動認識のための新しい逆学習フレームワークを提案する。
提案手法では,教師なしの自己知識蒸留を採用し,訓練手順の安定性と人間の活動認識性能を向上させる。
論文 参考訳(メタデータ) (2022-09-14T11:08:48Z) - DisenHCN: Disentangled Hypergraph Convolutional Networks for
Spatiotemporal Activity Prediction [53.76601630407521]
本稿では,既存のソリューションのギャップを埋めるために,DistenHCNと呼ばれるハイパーグラフネットワークモデルを提案する。
特に,ユーザの好みと時間的活動の複雑なマッチングをヘテロジニアスなハイパーグラフにまとめる。
次に、ユーザ表現を異なる側面(位置認識、時間認識、活動認識)に切り離し、構築したハイパーグラフ上に対応するアスペクトの特徴を集約する。
論文 参考訳(メタデータ) (2022-08-14T06:51:54Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - UMSNet: An Universal Multi-sensor Network for Human Activity Recognition [10.952666953066542]
本稿では,人間行動認識のためのユニバーサルマルチセンサネットワーク(UMSNet)を提案する。
特に,新しい軽量センサ残差ブロック(LSRブロック)を提案する。
我々のフレームワークは明確な構造を持ち、様々な種類のマルチモーダル時系列分類タスクに直接適用することができる。
論文 参考訳(メタデータ) (2022-05-24T03:29:54Z) - A Novel Skeleton-Based Human Activity Discovery Technique Using Particle
Swarm Optimization with Gaussian Mutation [0.0]
人間の活動発見は、各活動の定義に関する事前情報なしで、人間が行う活動を区別することを目的としている。
本稿では,3次元骨格配列における人間の活動探索を行うために,新しい非教師的手法を提案する。
3つのデータセットについて実験を行い,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2022-01-14T06:28:38Z) - Generative Partial Visual-Tactile Fused Object Clustering [81.17645983141773]
オブジェクトクラスタリングのためのGenerative Partial Visual-Tactile Fused(GPVTF)フレームワークを提案する。
条件付きクロスモーダルクラスタリング生成逆ネットワークを開発し、一方のモダリティ条件を他方のモダリティ上で合成する。
最後に、擬似ラベルに基づく2つのKL分割損失を用いて、対応するモダリティ固有エンコーダを更新する。
論文 参考訳(メタデータ) (2020-12-28T02:37:03Z) - Invariant Feature Learning for Sensor-based Human Activity Recognition [11.334750079923428]
被験者やデバイス間で共有される共通情報を抽出する不変特徴学習フレームワーク(IFLF)を提案する。
実験により、IFLFは、一般的なオープンデータセットと社内データセットをまたいだ主題とデバイスディバージョンの両方を扱うのに効果的であることが示された。
論文 参考訳(メタデータ) (2020-12-14T21:56:17Z) - Federated Learning with Heterogeneous Labels and Models for Mobile
Activity Monitoring [0.7106986689736827]
デバイス上でのフェデレーション学習は、分散的で協調的な機械学習に効果的なアプローチであることが証明されている。
本稿では,複数の活動にまたがる重なり合う情報ゲインを利用したラベルに基づくアグリゲーションのためのフレームワークを提案する。
Raspberry Pi 2上のHeterogeneity Human Activity Recognition (HHAR)データセットによる経験的評価は、決定論的精度が少なくとも11.01%向上したことを示している。
論文 参考訳(メタデータ) (2020-12-04T11:44:17Z) - A Tree-structure Convolutional Neural Network for Temporal Features
Exaction on Sensor-based Multi-resident Activity Recognition [4.619245607612873]
マルチレジデント活動認識(TSC-MRAR)のためのエンドツーエンド木構造畳み込みニューラルネットワークフレームワークを提案する。
まず、各サンプルをイベントとして扱い、スライディングウインドウに過去のセンサの読み取りを埋め込んだ現在のイベントを得る。
そして、時間的特徴を自動的に生成するために、木構造ネットワークを設計し、近くの読み物の時間的依存を導出する。
論文 参考訳(メタデータ) (2020-11-05T14:31:00Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - Sequential Weakly Labeled Multi-Activity Localization and Recognition on
Wearable Sensors using Recurrent Attention Networks [13.64024154785943]
本稿では,逐次的にラベル付けされたマルチアクティビティ認識と位置情報タスクを処理するために,RAN(Recurrent attention network)を提案する。
我々のRANモデルは、粗粒度シーケンシャルな弱いラベルからマルチアクティビティータイプを同時に推測することができる。
手動ラベリングの負担を大幅に軽減する。
論文 参考訳(メタデータ) (2020-04-13T04:57:09Z) - Human Activity Recognition from Wearable Sensor Data Using
Self-Attention [2.9023633922848586]
本稿では,身体のセンサデータから行動認識のための自己認識型ニューラルネットワークモデルを提案する。
一般に公開されている4つのHARデータセット、PAMAP2、Opportunity、Skoda、USC-HADについて実験を行った。
ベンチマークテスト対象とLeave-out-subject評価の両方において,最近の最先端モデルよりも高い性能向上を実現している。
論文 参考訳(メタデータ) (2020-03-17T14:16:57Z) - ZSTAD: Zero-Shot Temporal Activity Detection [107.63759089583382]
本研究では,ゼロショット時間的活動検出(ZSTAD)と呼ばれる新たなタスク設定を提案する。
このソリューションのアーキテクチャとして,R-C3Dに基づくエンドツーエンドのディープネットワークを設計する。
THUMOS14とCharadesデータセットの両方の実験は、目に見えない活動を検出するという点で有望なパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-03-12T02:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。