論文の概要: Contrastive Learning with Auxiliary User Detection for Identifying Activities
- arxiv url: http://arxiv.org/abs/2410.21300v1
- Date: Mon, 21 Oct 2024 09:04:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-03 07:21:59.467815
- Title: Contrastive Learning with Auxiliary User Detection for Identifying Activities
- Title(参考訳): 補助的ユーザ検出による行動同定のためのコントラスト学習
- Authors: Wen Ge, Guanyi Mou, Emmanuel O. Agu, Kyumin Lee,
- Abstract要約: 我々は、外的環境設定を考慮に入れた上で、自然的ユーザアクションパフォーマンスの違いの影響に対処することが重要であると論じている。
CLAUDIAはこれらの問題に対処するために設計された新しいフレームワークである。
実世界の3つのCA-HARデータセットに対する評価は、大幅なパフォーマンス向上を示している。
- 参考スコア(独自算出の注目度): 2.8132886759540146
- License:
- Abstract: Human Activity Recognition (HAR) is essential in ubiquitous computing, with far-reaching real-world applications. While recent SOTA HAR research has demonstrated impressive performance, some key aspects remain under-explored. Firstly, HAR can be both highly contextualized and personalized. However, prior work has predominantly focused on being Context-Aware (CA) while largely ignoring the necessity of being User-Aware (UA). We argue that addressing the impact of innate user action-performing differences is equally crucial as considering external contextual environment settings in HAR tasks. Secondly, being user-aware makes the model acknowledge user discrepancies but does not necessarily guarantee mitigation of these discrepancies, i.e., unified predictions under the same activities. There is a need for a methodology that explicitly enforces closer (different user, same activity) representations. To bridge this gap, we introduce CLAUDIA, a novel framework designed to address these issues. Specifically, we expand the contextual scope of the CA-HAR task by integrating User Identification (UI) within the CA-HAR framework, jointly predicting both CA-HAR and UI in a new task called User and Context-Aware HAR (UCA-HAR). This approach enriches personalized and contextual understanding by jointly learning user-invariant and user-specific patterns. Inspired by SOTA designs in the visual domain, we introduce a supervised contrastive loss objective on instance-instance pairs to enhance model efficacy and improve learned feature quality. Evaluation across three real-world CA-HAR datasets reveals substantial performance enhancements, with average improvements ranging from 5.8% to 14.1% in Matthew's Correlation Coefficient and 3.0% to 7.2% in Macro F1 score.
- Abstract(参考訳): HAR(Human Activity Recognition)は、ユビキタスコンピューティングにおいて必要不可欠であり、現実世界の広範囲な応用がある。
最近のSOTA HARの研究は印象的な性能を示しているが、いくつかの重要な側面は未調査のままである。
まず、HARは高度にコンテキスト化されパーソナライズされる。
しかしながら、以前の作業は主にコンテキストアウェア(CA)に重点を置いている一方で、ユーザアウェア(UA)の必要性を無視している。
我々は,HARタスクの外部環境設定を考える上で,ユーザアクションパフォーマンスの違いの影響に対処することが重要であると論じている。
第二に、ユーザー認識であることは、モデルにユーザーの不一致を認めさせるが、必ずしもこれらの不一致を緩和することを保証しない、すなわち、同じ活動下での統一的な予測である。
より近い(異なるユーザ、同じアクティビティ)表現を明示的に強制する方法論が必要です。
このギャップを埋めるために、これらの問題に対処するために設計された新しいフレームワークであるCLAUDIAを紹介する。
具体的には、ユーザ識別(UI)をCA-HARフレームワークに統合し、新しいタスクであるUser and Context-Aware HAR(UCA-HAR)において、CA-HARとUIの両方を共同で予測することで、CA-HARタスクのコンテキスト範囲を広げる。
このアプローチは、ユーザ不変パターンとユーザ固有パターンを共同学習することで、パーソナライズされたコンテキスト理解を強化する。
視覚領域におけるSOTA設計に触発されて、モデルの有効性を高め、学習された特徴品質を改善するために、インスタンス-インスタンス対に教師付きコントラスト損失目標を導入する。
3つの実世界のCA-HARデータセットに対する評価では、パフォーマンスが大幅に向上し、平均的な改善はMatthewの相関係数の5.8%から14.1%、Macro F1スコアの3.0%から7.2%となっている。
関連論文リスト
- Heterogeneous Hyper-Graph Neural Networks for Context-aware Human Activity Recognition [2.8132886759540146]
我々は,実世界の現実的なデータにおけるコンテキスト認識活動の訪問パターンを,汎用的なグラフ表現学習タスクとみなすことができると論じている。
本稿では,コンテキスト認識型ヒューマンアクティビティ認識のための新しいヘテロジニアスハイパーグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-09-26T02:44:37Z) - Spatio-Temporal Context Prompting for Zero-Shot Action Detection [13.22912547389941]
本稿では,視覚言語モデルの豊富な知識を効果的に活用し,対人インタラクションを実現する手法を提案する。
同時に複数の人物による異なる行動を認識するという課題に対処するために,興味あるトークンスポッティング機構を設計する。
提案手法は,従来の手法に比べて優れた結果を得ることができ,さらにマルチアクションビデオに拡張することができる。
論文 参考訳(メタデータ) (2024-08-28T17:59:05Z) - FamiCom: Further Demystifying Prompts for Language Models with Task-Agnostic Performance Estimation [73.454943870226]
言語モデルは、コンテキスト内学習能力に優れています。
本稿では,タスク非依存のパフォーマンス推定のためのより包括的な尺度であるFamiComを提案する。
論文 参考訳(メタデータ) (2024-06-17T06:14:55Z) - Continual Facial Expression Recognition: A Benchmark [3.181579197770883]
本研究は、FERタスク上でのCL技術の評価を行うConFER(Continuous Facial Expression Recognition)ベンチマークを示す。
これは、CK+、RAF-DB、AffectNetといった一般的なFERデータセットに対するCLベースのアプローチの比較分析である。
CL技術は、異なる学習環境下で、複数のデータセットで最先端(SOTA)パフォーマンスを達成することが示されている。
論文 参考訳(メタデータ) (2023-05-10T20:35:38Z) - On Exploring Pose Estimation as an Auxiliary Learning Task for
Visible-Infrared Person Re-identification [66.58450185833479]
本稿では,Pose Estimationを補助学習タスクとして活用して,エンドツーエンドフレームワークにおけるVI-ReIDタスクを支援する。
これら2つのタスクを相互に有利な方法で共同でトレーニングすることにより、高品質なモダリティ共有とID関連の特徴を学習する。
2つのベンチマークVI-ReIDデータセットの実験結果から,提案手法は一定のマージンで最先端の手法を継続的に改善することが示された。
論文 参考訳(メタデータ) (2022-01-11T09:44:00Z) - Learning to Relate Depth and Semantics for Unsupervised Domain
Adaptation [87.1188556802942]
教師なしドメイン適応(UDA)設定において,視覚的タスク関係を符号化してモデル性能を向上させる手法を提案する。
本稿では,意味的および深さ的予測のタスク依存性を符号化する新しいクロスタスク関係層(ctrl)を提案する。
さらに、セマンティック擬似ラベルを利用してターゲットドメインを監督する反復自己学習(ISL)トレーニングスキームを提案する。
論文 参考訳(メタデータ) (2021-05-17T13:42:09Z) - Invariant Feature Learning for Sensor-based Human Activity Recognition [11.334750079923428]
被験者やデバイス間で共有される共通情報を抽出する不変特徴学習フレームワーク(IFLF)を提案する。
実験により、IFLFは、一般的なオープンデータセットと社内データセットをまたいだ主題とデバイスディバージョンの両方を扱うのに効果的であることが示された。
論文 参考訳(メタデータ) (2020-12-14T21:56:17Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z) - Disentangled Graph Collaborative Filtering [100.26835145396782]
Disentangled Graph Collaborative Filtering (DGCF)は、インタラクションデータからユーザとアイテムの情報表現を学ぶための新しいモデルである。
ユーザ・イテムのインタラクション毎に意図を超越した分布をモデル化することにより、インテント・アウェアなインタラクショングラフと表現を反復的に洗練する。
DGCFはNGCF、DisenGCN、MacridVAEといった最先端モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-07-03T15:37:25Z) - Mining Implicit Entity Preference from User-Item Interaction Data for
Knowledge Graph Completion via Adversarial Learning [82.46332224556257]
本稿では,知識グラフ補完タスクにおけるユーザインタラクションデータを活用することで,新たな逆学習手法を提案する。
我々のジェネレータはユーザインタラクションデータから分離されており、識別器の性能を向上させるのに役立ちます。
利用者の暗黙の実体的嗜好を発見するために,グラフニューラルネットワークに基づく精巧な協調学習アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-03-28T05:47:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。