論文の概要: Collaborative Temporal Feature Generation via Critic-Free Reinforcement Learning for Cross-User Sensor-Based Activity Recognition
- arxiv url: http://arxiv.org/abs/2603.16043v1
- Date: Tue, 17 Mar 2026 01:03:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.058211
- Title: Collaborative Temporal Feature Generation via Critic-Free Reinforcement Learning for Cross-User Sensor-Based Activity Recognition
- Title(参考訳): クロスユーザセンサによる活動認識のための批判自由強化学習による協調的時間特徴生成
- Authors: Xiaozhou Ye, Feng Jiang, Zihan Wang, Xiulai Wang, Yutao Zhang, Kevin I-Kai Wang,
- Abstract要約: ウェアラブル慣性センサーを用いたヒューマンアクティビティ認識は、医療モニタリング、フィットネス分析、コンテキスト認識コンピューティングの基礎となる。
既存のドメインの一般化アプローチは、センサーストリームの時間的依存関係を無視したり、非現実的なターゲットドメインアノテーションに依存したりする。
我々は、強化学習によって制御される協調的な逐次生成プロセスとして、一般化可能な特徴抽出をモデル化する新しいパラダイムを提案する。
- 参考スコア(独自算出の注目度): 16.776182784171713
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Human Activity Recognition using wearable inertial sensors is foundational to healthcare monitoring, fitness analytics, and context-aware computing, yet its deployment is hindered by cross-user variability arising from heterogeneous physiological traits, motor habits, and sensor placements. Existing domain generalization approaches either neglect temporal dependencies in sensor streams or depend on impractical target-domain annotations. We propose a different paradigm: modeling generalizable feature extraction as a collaborative sequential generation process governed by reinforcement learning. Our framework, CTFG (Collaborative Temporal Feature Generation), employs a Transformer-based autoregressive generator that incrementally constructs feature token sequences, each conditioned on prior context and the encoded sensor input. The generator is optimized via Group-Relative Policy Optimization, a critic-free algorithm that evaluates each generated sequence against a cohort of alternatives sampled from the same input, deriving advantages through intra-group normalization rather than learned value estimation. This design eliminates the distribution-dependent bias inherent in critic-based methods and provides self-calibrating optimization signals that remain stable across heterogeneous user distributions. A tri-objective reward comprising class discrimination, cross-user invariance, and temporal fidelity jointly shapes the feature space to separate activities, align user distributions, and preserve fine-grained temporal content. Evaluations on the DSADS and PAMAP2 benchmarks demonstrate state-of-the-art cross-user accuracy (88.53\% and 75.22\%), substantial reduction in inter-task training variance, accelerated convergence, and robust generalization under varying action-space dimensionalities.
- Abstract(参考訳): ウェアラブル慣性センサーを用いたヒューマンアクティビティ認識は、医療モニタリング、フィットネス分析、コンテキスト認識コンピューティングの基礎となっているが、その展開は異種生理的特性、運動習慣、センサー配置から生じるユーザ間の多様性によって妨げられている。
既存のドメインの一般化アプローチは、センサーストリームの時間的依存関係を無視したり、非現実的なターゲットドメインアノテーションに依存したりする。
強化学習によって制御される協調的逐次生成プロセスとして、一般化可能な特徴抽出をモデル化する。
我々のフレームワークであるCTFG(Collaborative Temporal Feature Generation)はTransformerベースの自動回帰ジェネレータを用いて、特徴トークンシーケンスをインクリメンタルに構築する。
ジェネレータはグループ相対ポリシー最適化(Group-Relative Policy Optimization)によって最適化される。これは、同じ入力からサンプリングされたオルタナティブのコホートに対して各生成されたシーケンスを評価し、学習値推定よりもグループ内正規化による利点を導き出す。
この設計は、批判に基づく手法に固有の分布依存バイアスを排除し、不均一なユーザ分布に対して安定な自己校正最適化信号を提供する。
クラス識別、クロスユーザ不変性、時間的忠実性を含む三目的報酬は、特徴空間を共同で形成し、アクティビティを分離し、ユーザ分布を調整し、きめ細かい時間的内容を保存する。
DSADSとPAMAP2ベンチマークの評価では、最先端のクロスユーザー精度(88.53\%と75.22\%)、タスク間トレーニングのばらつきの大幅な低減、収束の加速、アクション空間次元の変化による堅牢な一般化が示されている。
関連論文リスト
- Group-Invariant Unsupervised Skill Discovery: Symmetry-aware Skill Representations for Generalizable Behavior [7.469447825853364]
Group-Invariant Skill Discoveryは、グループ構造をスキル発見の目的に組み込むフレームワークである。
GISD は,下流のタスク学習において,強大なベースラインに比べて,広範な状態空間のカバレッジを実現し,効率を向上することを示す。
論文 参考訳(メタデータ) (2026-01-20T14:21:18Z) - Every Subtlety Counts: Fine-grained Person Independence Micro-Action Recognition via Distributionally Robust Optimization [36.230001277076376]
マイクロアクション認識は、心理的アセスメントと人間とコンピュータの相互作用に不可欠である。
既存の手法は現実のシナリオで失敗することが多い。
本稿では、分散ロバスト最適化の原則を取り入れた個人独立ユニバーサルマイクロアクション認識フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-25T14:54:24Z) - Reinforcement Learning Driven Generalizable Feature Representation for Cross-User Activity Recognition [4.825848430049148]
時間保存強化学習領域一般化(TPRL-DG)を提案する。
TPRL-DGは、強化学習による逐次決定過程として特徴抽出を再定義する。
TPRL-DGは、堅牢でユーザ不変な時間パターンを学習することにより、スケーラブルなヒューマンアクティビティ認識システムを実現する。
論文 参考訳(メタデータ) (2025-08-31T23:48:00Z) - Continual Adaptation: Environment-Conditional Parameter Generation for Object Detection in Dynamic Scenarios [54.58186816693791]
環境は時間と空間によって常に変化し、クローズドセットの仮定に基づいて訓練された物体検出器にとって重要な課題となる。
そこで本研究では,微調整過程をパラメータ生成に変換する機構を提案する。
特に,2経路LoRAベースのドメイン認識アダプタを最初に設計し,特徴をドメイン不変およびドメイン固有コンポーネントに分解する。
論文 参考訳(メタデータ) (2025-06-30T17:14:12Z) - Improving Black-Box Generative Attacks via Generator Semantic Consistency [51.470649503929344]
ジェネレーティブアタックは テスト時に 1つのフォワードパスで 敵の例を生成する
初期ジェネレータの中間機能をEMA教師に整列させることで意味的整合性を実現する。
我々のアプローチは、ブラックボックス転送の一貫性を保ちながら、既存のジェネレーティブアタックにシームレスに統合することができる。
論文 参考訳(メタデータ) (2025-06-23T02:35:09Z) - Continual-MAE: Adaptive Distribution Masked Autoencoders for Continual Test-Time Adaptation [49.827306773992376]
連続的テスト時間適応(CTTA)は、ソース事前学習モデルから目標分布の連続的な変化に移行するために提案される。
提案手法は,CTTAタスクの分類とセグメンテーションの両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-19T15:34:52Z) - Time-series Generation by Contrastive Imitation [87.51882102248395]
モーメントマッチングの目的によってモチベーションされ、複合的エラーを軽減し、局所的(しかし前方的な)遷移ポリシーを最適化する。
推論において、学習されたポリシーは反復的なサンプリングのジェネレータとして機能し、学習されたエネルギーはサンプルの品質を評価するための軌道レベル尺度として機能する。
論文 参考訳(メタデータ) (2023-11-02T16:45:25Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。