論文の概要: Deep Generative Domain Adaptation with Temporal Attention for Cross-User Activity Recognition
- arxiv url: http://arxiv.org/abs/2403.17958v1
- Date: Tue, 12 Mar 2024 22:45:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-01 02:34:48.494837
- Title: Deep Generative Domain Adaptation with Temporal Attention for Cross-User Activity Recognition
- Title(参考訳): 時間的注意によるユーザ間活動認識のための深部生成ドメイン適応
- Authors: Xiaozhou Ye, Kevin I-Kai Wang,
- Abstract要約: HAR(Human Activity Recognition)では、トレーニングや評価目的で使用されるデータが同じ分布から引き出されるという前提が主流である。
本研究では時間的アテンション法による深部生成ドメイン適応を提案する。
時間的関係注意機構による生成モデルの能力の相乗化により,本手法はユーザ間HARの分類性能を向上させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In Human Activity Recognition (HAR), a predominant assumption is that the data utilized for training and evaluation purposes are drawn from the same distribution. It is also assumed that all data samples are independent and identically distributed ($\displaystyle i.i.d.$). Contrarily, practical implementations often challenge this notion, manifesting data distribution discrepancies, especially in scenarios such as cross-user HAR. Domain adaptation is the promising approach to address these challenges inherent in cross-user HAR tasks. However, a clear gap in domain adaptation techniques is the neglect of the temporal relation embedded within time series data during the phase of aligning data distributions. Addressing this oversight, our research presents the Deep Generative Domain Adaptation with Temporal Attention (DGDATA) method. This novel method uniquely recognises and integrates temporal relations during the domain adaptation process. By synergizing the capabilities of generative models with the Temporal Relation Attention mechanism, our method improves the classification performance in cross-user HAR. A comprehensive evaluation has been conducted on three public sensor-based HAR datasets targeting different scenarios and applications to demonstrate the efficacy of the proposed DGDATA method.
- Abstract(参考訳): HAR(Human Activity Recognition)では、トレーニングや評価目的で使用されるデータが同じ分布から引き出されるという前提が主流である。
また、すべてのデータサンプルは独立であり、同じ分散である(i.i.d.$)。
対照的に、実践的な実装は、特にユーザ間のHARのようなシナリオにおいて、データ分散の相違を顕在化して、この概念に挑戦することが多い。
ドメイン適応は、ユーザ間のHARタスクに固有のこれらの課題に対処するための有望なアプローチである。
しかし、ドメイン適応手法の明確なギャップは、データ分布の整列フェーズ中に時系列データに埋め込まれた時間的関係を無視することである。
本研究は,時間的アテンション(DGDATA)法を用いた深部生成ドメイン適応法を提案する。
本手法は,ドメイン適応過程における時間的関係を一意に認識し,統合する。
時間的関係注意機構による生成モデルの能力の相乗化により,本手法はユーザ間HARの分類性能を向上させる。
提案手法の有効性を実証するために,様々なシナリオと応用をターゲットとした3つの公開センサベースHARデータセットに対して総合的な評価を行った。
関連論文リスト
- Deep Generative Domain Adaptation with Temporal Relation Knowledge for Cross-User Activity Recognition [0.0]
人間の行動認識では、トレーニングとテストが独立であり、同じ分布(すなわち、d)がしばしば失敗する。
本研究では,HARにおける時系列領域適応の独特な課題に対処する,ユニバーサルシーケンスマッピング(CVAE-USM)を用いた変分オートエンコーダを提案する。
本手法は, ユーザ間の共通時間パターンを捉え, 利用するために, 可変オートエンコーダ (VAE) とユニバーサルシーケンスマッピング (USM) の長所を組み合わせる。
論文 参考訳(メタデータ) (2024-03-12T22:48:23Z) - Cross-user activity recognition using deep domain adaptation with temporal relation information [1.8749305679160366]
HAR(Human Activity Recognition)はユビキタスコンピューティングの基盤である。
本稿では,個人間の行動変動がデータ分布の異なる結果をもたらす,ユーザ間HAR問題について考察する。
本稿では,ユーザ間HARにおける時系列領域適応に適した革新的アプローチであるDeep Temporal State Domain Adaptation (DTSDA)モデルを紹介する。
論文 参考訳(メタデータ) (2024-03-12T22:38:09Z) - Cross-user activity recognition via temporal relation optimal transport [0.0]
人間の活動認識(HAR)に関する現在の研究は、トレーニングデータとテストデータが同一の分布から抽出され、一般化されたモデルを達成することを前提としている。
本稿では,時間的関係を利用した時間的関係最適輸送法(TROT)を提案し,$の仮定を緩和する。
論文 参考訳(メタデータ) (2024-03-12T22:33:56Z) - Progressive Conservative Adaptation for Evolving Target Domains [76.9274842289221]
従来のドメイン適応は、典型的には、ソースドメインから定常ターゲットドメインに知識を転送する。
このような対象データに対する復元と適応は、時間とともに計算とリソース消費をエスカレートする。
我々は、進歩的保守的適応(PCAda)と呼ばれる、単純で効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-07T04:11:25Z) - One-Shot Domain Adaptive and Generalizable Semantic Segmentation with
Class-Aware Cross-Domain Transformers [96.51828911883456]
セマンティックセグメンテーションのための教師なしのsim-to-realドメイン適応(UDA)は、シミュレーションデータに基づいて訓練されたモデルの実世界のテスト性能を改善することを目的としている。
従来のUDAは、適応のためのトレーニング中に利用可能なラベルのない実世界のサンプルが豊富にあると仮定することが多い。
実世界のデータサンプルが1つしか利用できない,一発の教師なしシム・トゥ・リアル・ドメイン適応(OSUDA)と一般化問題について検討する。
論文 参考訳(メタデータ) (2022-12-14T15:54:15Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Deep Unsupervised Domain Adaptation: A Review of Recent Advances and
Perspectives [16.68091981866261]
対象領域のデータの性能低下に対応するために、教師なし領域適応(UDA)を提案する。
UDAは、自然言語処理、ビデオ解析、自然言語処理、時系列データ分析、医用画像解析など、有望な成果を上げている。
論文 参考訳(メタデータ) (2022-08-15T20:05:07Z) - Domain Generalization for Activity Recognition via Adaptive Feature
Fusion [9.458837222079612]
本稿では,emphAdaptive Feature Fusion for Activity Recognition (AFFAR)を提案する。
AFFARは、モデルの一般化性能を改善するために、ドメイン不変表現とドメイン固有表現を融合することを学ぶ。
AFARを実際の応用、すなわち子どもの注意欠陥性高活動障害(ADHD)の診断に適用する。
論文 参考訳(メタデータ) (2022-07-21T02:14:09Z) - Lifelong Unsupervised Domain Adaptive Person Re-identification with
Coordinated Anti-forgetting and Adaptation [127.6168183074427]
本稿では,LUDA (Lifelong Unsupervised Domain Adaptive) という新たなタスクを提案する。
これは、モデルがターゲット環境のラベル付けされていないデータに継続的に適応する必要があるため、難しい。
我々は、CLUDA-ReIDと呼ばれるこのタスクのための効果的なスキームを設計し、そこでは、アンチフォージェッティングが適応と調和して調整される。
論文 参考訳(メタデータ) (2021-12-13T13:19:45Z) - VisDA-2021 Competition Universal Domain Adaptation to Improve
Performance on Out-of-Distribution Data [64.91713686654805]
Visual Domain Adaptation (VisDA) 2021コンペティションは、新しいテストディストリビューションに適応するモデルの能力をテストする。
我々は,新しい視点,背景,モダリティ,品質劣化への適応性を評価する。
厳密なプロトコルを使用してパフォーマンスを計測し、最先端のドメイン適応手法と比較する。
論文 参考訳(メタデータ) (2021-07-23T03:21:51Z) - Unsupervised Domain Adaptation for Spatio-Temporal Action Localization [69.12982544509427]
S時間動作の局所化はコンピュータビジョンにおいて重要な問題である。
本稿では、エンドツーエンドの教師なしドメイン適応アルゴリズムを提案する。
空間的特徴と時間的特徴を別々にあるいは共同的に適応した場合に,顕著な性能向上が達成できることを示す。
論文 参考訳(メタデータ) (2020-10-19T04:25:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。