論文の概要: Reinforcement Learning Driven Generalizable Feature Representation for Cross-User Activity Recognition
- arxiv url: http://arxiv.org/abs/2509.01031v1
- Date: Sun, 31 Aug 2025 23:48:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.509111
- Title: Reinforcement Learning Driven Generalizable Feature Representation for Cross-User Activity Recognition
- Title(参考訳): クロスユーザ行動認識のための強化学習駆動型一般化可能な特徴表現
- Authors: Xiaozhou Ye, Kevin I-Kai Wang,
- Abstract要約: 時間保存強化学習領域一般化(TPRL-DG)を提案する。
TPRL-DGは、強化学習による逐次決定過程として特徴抽出を再定義する。
TPRL-DGは、堅牢でユーザ不変な時間パターンを学習することにより、スケーラブルなヒューマンアクティビティ認識システムを実現する。
- 参考スコア(独自算出の注目度): 4.825848430049148
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Human Activity Recognition (HAR) using wearable sensors is crucial for healthcare, fitness tracking, and smart environments, yet cross-user variability -- stemming from diverse motion patterns, sensor placements, and physiological traits -- hampers generalization in real-world settings. Conventional supervised learning methods often overfit to user-specific patterns, leading to poor performance on unseen users. Existing domain generalization approaches, while promising, frequently overlook temporal dependencies or depend on impractical domain-specific labels. We propose Temporal-Preserving Reinforcement Learning Domain Generalization (TPRL-DG), a novel framework that redefines feature extraction as a sequential decision-making process driven by reinforcement learning. TPRL-DG leverages a Transformer-based autoregressive generator to produce temporal tokens that capture user-invariant activity dynamics, optimized via a multi-objective reward function balancing class discrimination and cross-user invariance. Key innovations include: (1) an RL-driven approach for domain generalization, (2) autoregressive tokenization to preserve temporal coherence, and (3) a label-free reward design eliminating the need for target user annotations. Evaluations on the DSADS and PAMAP2 datasets show that TPRL-DG surpasses state-of-the-art methods in cross-user generalization, achieving superior accuracy without per-user calibration. By learning robust, user-invariant temporal patterns, TPRL-DG enables scalable HAR systems, facilitating advancements in personalized healthcare, adaptive fitness tracking, and context-aware environments.
- Abstract(参考訳): ウェアラブルセンサーを用いたヒューマンアクティビティ認識(HAR)は、医療、フィットネストラッキング、スマート環境において不可欠だが、多様な動きパターン、センサー配置、生理的特性から生じる、ユーザ間の多様性は、現実の環境での一般化を妨げている。
従来の教師付き学習手法は、しばしばユーザ固有のパターンに過度に適合し、目に見えないユーザのパフォーマンスが低下する。
既存のドメインの一般化アプローチは、有望な一方で、時間的依存をしばしば見落としているか、あるいは非現実的なドメイン固有のラベルに依存している。
本稿では,TPRL-DG(Temporal-Preserving Reinforcement Learning Domain Generalization)を提案する。
TPRL-DGはTransformerベースの自己回帰ジェネレータを利用して、時間トークンを生成し、ユーザの不変なアクティビティのダイナミクスをキャプチャし、クラス識別とユーザ間不変性のバランスをとる多目的報酬関数によって最適化する。
主なイノベーションは、(1)ドメインの一般化のためのRL駆動アプローチ、(2)時間的コヒーレンスを維持するための自己回帰トークン化、(3)ターゲットユーザアノテーションの必要性を排除したラベルフリー報酬設計である。
DSADSとPAMAP2データセットの評価によると、TPRL-DGはユーザ間の一般化において最先端の手法を超越し、ユーザ単位のキャリブレーションなしで精度が向上している。
堅牢でユーザ不変の時間パターンを学習することにより、TPRL-DGはスケーラブルなHARシステムを可能にし、パーソナライズされたヘルスケア、適応フィットネストラッキング、コンテキスト対応環境の進歩を促進する。
関連論文リスト
- Reinforcement Learning from Diverse Human Preferences [68.4294547285359]
本稿では,人選好ラベルをクラウドソーシングし,多様な嗜好から学習する手法を開発した。
提案手法はDMcontrolとMeta-worldの様々なタスクでテストされる。
多様なフィードバックから学ぶと、既存の好みベースのRLアルゴリズムよりも一貫性があり、大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-27T15:18:54Z) - Learning Self-Modulating Attention in Continuous Time Space with
Applications to Sequential Recommendation [102.24108167002252]
本稿では,複雑で非線形に進化する動的ユーザの嗜好をモデル化する,自己変調型注意ネットワークを提案する。
提案手法がトップNシーケンシャルなレコメンデーションタスクに与える影響を実証的に示すとともに,3つの大規模実世界のデータセットによる結果から,我々のモデルが最先端のパフォーマンスを達成できることを示す。
論文 参考訳(メタデータ) (2022-03-30T03:54:11Z) - Weakly Supervised Disentangled Representation for Goal-conditioned
Reinforcement Learning [15.698612710580447]
本稿では,サンプル効率の向上と政策一般化を目的としたスキル学習フレームワークDR-GRLを提案する。
本稿では,解釈可能かつ制御可能な表現を学習するための空間変換オートエンコーダ(STAE)を提案する。
DR-GRLは, 試料効率と政策一般化において, 従来の手法よりも有意に優れていたことを実証的に実証した。
論文 参考訳(メタデータ) (2022-02-28T09:05:14Z) - Feature Diversity Learning with Sample Dropout for Unsupervised Domain
Adaptive Person Re-identification [0.0]
本稿では,ノイズの多い擬似ラベルを限定することで,より優れた一般化能力を持つ特徴表現を学習する手法を提案する。
我々は,古典的な相互学習アーキテクチャの下で,FDL(Feature Diversity Learning)と呼ばれる新しい手法を提案する。
実験の結果,提案するFDL-SDは,複数のベンチマークデータセット上での最先端性能を実現することがわかった。
論文 参考訳(メタデータ) (2022-01-25T10:10:48Z) - Generative Adversarial Reward Learning for Generalized Behavior Tendency
Inference [71.11416263370823]
ユーザの行動嗜好モデルのための生成的逆強化学習を提案する。
我々のモデルは,差別的アクター批判ネットワークとWasserstein GANに基づいて,ユーザの行動から報酬を自動的に学習することができる。
論文 参考訳(メタデータ) (2021-05-03T13:14:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。