論文の概要: Gated Adaptation for Continual Learning in Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2603.10046v1
- Date: Sun, 08 Mar 2026 18:34:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.587683
- Title: Gated Adaptation for Continual Learning in Human Activity Recognition
- Title(参考訳): 人間の活動認識における連続学習のためのゲーテッド適応
- Authors: Reza Rahimi Azghan, Gautham Krishna Gudur, Mohit Malu, Edison Thomaz, Giulia Pedrielli, Pavan Turaga, Hassan Ghasemzadeh,
- Abstract要約: AIモデルは、しばしば破滅的な忘れ込みを示し、新しいタスクを学ぶことは、以前のタスクのパフォーマンスを低下させる。
凍結した事前学習表現のチャネルワイドゲート変調に基づくパラメータ効率の連続学習フレームワークを提案する。
我々のアプローチでは、忘れを39.7%から16.2%に減らし、最終精度を56.7%から77.7%に改善する一方で、パラメータの2%未満のトレーニングを行っている。
- 参考スコア(独自算出の注目度): 4.252135605345159
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Wearable sensors in Internet of Things (IoT) ecosystems increasingly support applications such as remote health monitoring, elderly care, and smart home automation, all of which rely on robust human activity recognition (HAR). Continual learning systems must balance plasticity (learning new tasks) with stability (retaining prior knowledge), yet AI models often exhibit catastrophic forgetting, where learning new tasks degrades performance on earlier ones. This challenge is especially acute in domain-incremental HAR, where on-device models must adapt to new subjects with distinct movement patterns while maintaining accuracy on prior subjects without transmitting sensitive data to the cloud. We propose a parameter-efficient continual learning framework based on channel-wise gated modulation of frozen pretrained representations. Our key insight is that adaptation should operate through feature selection rather than feature generation: by restricting learned transformations to diagonal scaling of existing features, we preserve the geometry of pretrained representations while enabling subject-specific modulation. We provide a theoretical analysis showing that gating implements a bounded diagonal operator that limits representational drift compared to unconstrained linear transformations. Empirically, freezing the backbone substantially reduces forgetting, and lightweight gates restore lost adaptation capacity, achieving stability and plasticity simultaneously. On PAMAP2 with 8 sequential subjects, our approach reduces forgetting from 39.7% to 16.2% and improves final accuracy from 56.7% to 77.7%, while training less than 2% of parameters. Our method matches or exceeds standard continual learning baselines without replay buffers or task-specific regularization, confirming that structured diagonal operators are effective and efficient under distribution shift.
- Abstract(参考訳): IoT(Internet of Things)エコシステムのウェアラブルセンサーは、リモートヘルス監視、高齢者ケア、スマートホームオートメーションといった、堅牢なヒューマンアクティビティ認識(HAR)に依存したアプリケーションのサポートをますます高めている。
継続的な学習システムは、可塑性(新しいタスクを学ぶ)と安定性(事前知識を保持する)のバランスをとる必要があるが、AIモデルは、しばしば破滅的な忘れ込みを示し、新しいタスクを学ぶことは、以前のタスクのパフォーマンスを劣化させる。
この課題は、特にドメインインクリメンタルなHARにおいて、デバイス上のモデルは、クラウドに機密データを送信することなく、事前の被写体に対して精度を維持しながら、異なる動きパターンを持つ新しい被写体に適応する必要がある。
凍結した事前学習表現のチャネルワイドゲート変調に基づくパラメータ効率の連続学習フレームワークを提案する。
既存の特徴の対角的スケーリングに学習的な変換を限定することにより、事前学習された表現の幾何学を保ちながら、対象固有の変調を可能にします。
我々は、ゲーティングが非制約線型変換と比較して表現のドリフトを制限する有界対角作用素を実装していることを示す理論的解析を行う。
実験的に、バックボーンの凍結は忘れを著しく低減し、軽量ゲートは、失われた適応能力を回復し、安定性と可塑性を同時に達成する。
8項目のPAMAP2では、パラメータの2%未満をトレーニングしながら、39.7%から16.2%に、最終精度を56.7%から77.7%に改善する。
提案手法はバッファやタスク固有の正規化を使わずに,標準的な連続学習ベースラインに適合あるいは超過し,構造的対角演算子が分散シフト下で有効かつ効率的であることを確認した。
関連論文リスト
- EKPC: Elastic Knowledge Preservation and Compensation for Class-Incremental Learning [53.88000987041739]
クラスインクリメンタルラーニング(Class-Incremental Learning, CIL)は、AIモデルを、時間とともに異なるクラスのシーケンシャルに到着したデータから継続的に学習可能にすることを目的としている。
本稿では, 重要度を考慮した重要度正規化 (IPR) と CIL のためのトレーニング可能なセマンティックドリフト補償 (TSDC) を統合したElastic Knowledge Preservation and Compensation (EKPC) 法を提案する。
論文 参考訳(メタデータ) (2025-06-14T05:19:58Z) - Preserving Plasticity in Continual Learning with Adaptive Linearity Injection [10.641213440191551]
ディープニューラルネットワークにおける可塑性の喪失は、漸進的に学習するモデルの能力が徐々に低下することである。
近年の研究では、深い線形ネットワークは可塑性の喪失に対して弾力性があることが示されている。
適応線形化(AdaLin)は,各ニューロンの活性化機能を動的に適応し,可塑性損失を軽減する一般的な手法である。
論文 参考訳(メタデータ) (2025-05-14T15:36:51Z) - Sculpting Subspaces: Constrained Full Fine-Tuning in LLMs for Continual Learning [19.27175827358111]
大規模言語モデル(LLM)における継続的な学習は破滅的な忘れがちである。
適応特異値分解(SVD)を利用した連続的完全微調整手法を提案する。
我々は,Encoder-decoder (T5-Large) モデルとdecoder-only (LLaMA-2 7B) モデルの両方を用いて,標準連続学習ベンチマークを広範囲に評価した。
論文 参考訳(メタデータ) (2025-04-09T17:59:42Z) - SURGEON: Memory-Adaptive Fully Test-Time Adaptation via Dynamic Activation Sparsity [30.260783715373382]
テスト時間適応(TTA)は、未ラベルのターゲットデータにオンラインで適応することで、ディープモデルの性能を向上させるために出現している。
しかし、特にリソース制約のある端末におけるメモリコストは、ほとんどの後方プロパゲーションベースのTTAメソッドの効果的な展開を妨げる。
メモリの制約に対処するため,SURGEONを導入する。
論文 参考訳(メタデータ) (2025-03-26T09:27:09Z) - Learning Continually by Spectral Regularization [45.55508032009977]
連続学習アルゴリズムは、ネットワークのトレーニング性を維持しながら、良好な性能を維持することにより、可塑性の損失を軽減する。
我々は,初期化時のニューラルネットワークパラメータの特異値が学習の初期段階におけるトレーニング容易性の重要な要因であることから着想を得た,継続学習を改善するための新しい手法を開発した。
提案するスペクトル正規化器は,連続的な教師付きおよび強化学習環境において,様々なモデルアーキテクチャの訓練性と性能を維持可能であることを示す実験的検討を行った。
論文 参考訳(メタデータ) (2024-06-10T21:34:43Z) - Towards Continual Learning Desiderata via HSIC-Bottleneck
Orthogonalization and Equiangular Embedding [55.107555305760954]
本稿では,レイヤワイドパラメータのオーバーライトや決定境界の歪みに起因する,概念的にシンプルで効果的な手法を提案する。
提案手法は,ゼロの指数バッファと1.02倍の差が絶対的に優れていても,競争精度が向上する。
論文 参考訳(メタデータ) (2024-01-17T09:01:29Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - CODA-Prompt: COntinual Decomposed Attention-based Prompting for
Rehearsal-Free Continual Learning [30.676509834338884]
コンピュータビジョンモデルは、継続的なトレーニングデータから新しい概念を学ぶ際に、破滅的な忘れという現象に悩まされる。
データリハーサルに代わるアプローチを提案する。
我々は,従来のSOTA法であるDualPromptを,平均的な最終精度で最大4.5%上回っていることを示す。
論文 参考訳(メタデータ) (2022-11-23T18:57:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。