論文の概要: Efficient Online Continual Learning in Sensor-Based Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2511.05566v1
- Date: Tue, 04 Nov 2025 08:48:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.449086
- Title: Efficient Online Continual Learning in Sensor-Based Human Activity Recognition
- Title(参考訳): センサによる人間活動認識におけるオンライン連続学習の効率化
- Authors: Yao Zhang, Souza Leite Clayton, Yu Xiao,
- Abstract要約: PTRN-HARは、限られた量のデータで対照的な損失を用いて特徴抽出器を事前訓練する。
本稿では,PTRN-HARについて紹介する。
- 参考スコア(独自算出の注目度): 8.720698253117837
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models for sensor-based human activity recognition (HAR) are expected to adapt post-deployment to recognize new activities and different ways of performing existing ones. To address this need, Online Continual Learning (OCL) mechanisms have been proposed, allowing models to update their knowledge incrementally as new data become available while preserving previously acquired information. However, existing OCL approaches for sensor-based HAR are computationally intensive and require extensive labeled samples to represent new changes. Recently, pre-trained model-based (PTM-based) OCL approaches have shown significant improvements in performance and efficiency for computer vision applications. These methods achieve strong generalization capabilities by pre-training complex models on large datasets, followed by fine-tuning on downstream tasks for continual learning. However, applying PTM-based OCL approaches to sensor-based HAR poses significant challenges due to the inherent heterogeneity of HAR datasets and the scarcity of labeled data in post-deployment scenarios. This paper introduces PTRN-HAR, the first successful application of PTM-based OCL to sensor-based HAR. Unlike prior PTM-based OCL approaches, PTRN-HAR pre-trains the feature extractor using contrastive loss with a limited amount of data. This extractor is then frozen during the streaming stage. Furthermore, it replaces the conventional dense classification layer with a relation module network. Our design not only significantly reduces the resource consumption required for model training while maintaining high performance, but also improves data efficiency by reducing the amount of labeled data needed for effective continual learning, as demonstrated through experiments on three public datasets, outperforming the state-of-the-art. The code can be found here: https://anonymous.4open.science/r/PTRN-HAR-AF60/
- Abstract(参考訳): センサベースのヒューマンアクティビティ認識(HAR)のための機械学習モデルは、デプロイ後、新しいアクティビティと既存のアクティビティの実行方法を認識するために適応することが期待されている。
このニーズに対応するために、オンライン連続学習(OCL)メカニズムが提案されており、モデルが以前取得した情報を保存しながら、新しいデータが利用可能になったときに、その知識を漸進的に更新することができる。
しかし、センサベースのHARに対する既存のOCLアプローチは計算集約的であり、新しい変化を表現するために広範囲なラベル付きサンプルを必要とする。
近年,プリトレーニングモデルベース (PTM ベース) OCL アプローチでは,コンピュータビジョンアプリケーションの性能と効率が大幅に向上している。
これらの手法は、大規模データセット上で複雑なモデルを事前学習し、次いで連続学習のための下流タスクを微調整することにより、強力な一般化機能を実現する。
しかし、PTMベースのOCLアプローチをセンサベースのHARに適用することは、HARデータセットの固有の不均一性と、デプロイ後のシナリオにおけるラベル付きデータの不足により、大きな課題を生じさせる。
本稿では,PTRN-HARについて紹介する。
従来の PTM ベースの OCL アプローチとは異なり、PTRN-HAR はデータ量に制限のあるコントラスト損失を用いて特徴抽出器を事前訓練する。
この抽出器は、ストリーミング段階で凍結される。
さらに、従来の高密度分類層をリレーショナルモジュールネットワークに置き換える。
我々の設計は、高性能を維持しながらモデルトレーニングに必要なリソース消費量を大幅に削減するだけでなく、3つの公開データセットで実証された実験により、効果的な連続学習に必要なラベル付きデータの量を削減し、データ効率を向上させる。
コードは以下の通りである。 https://anonymous.4open.science/r/PTRN-HAR-AF60/
関連論文リスト
- Casing Collar Identification using AlexNet-based Neural Networks for Depth Measurement in Oil and Gas Wells [18.590650630455325]
ケーシング・カラー・ロケータ (CCL) を用いたコラー相関は, 精密深度校正の基礎となる。
本稿では,データセット構築を容易にするために,CCL信号取得のためのダウンホールツールに組み込まれたシステムを提案する。
データ拡張のための包括的事前処理手法を提案し、AlexNetベースのニューラルネットワークモデルを用いてその有効性を評価する。
論文 参考訳(メタデータ) (2025-10-31T10:25:23Z) - Comparing Knowledge Injection Methods for LLMs in a Low-Resource Regime [13.230760040927496]
大規模言語モデルに小さな非構造化情報を注入する作業について検討する。
制限されたデータに対する事前トレーニングを継続するだけで、控えめな改善が得られます。
私たちは、小さなデータ体制における忘れる現象に光を当て、新しいコンテンツ学習と既存の能力維持の微妙なバランスを図った。
論文 参考訳(メタデータ) (2025-08-08T09:48:32Z) - Diffusion-Driven Data Replay: A Novel Approach to Combat Forgetting in Federated Class Continual Learning [13.836798036474143]
Federated Class Continual Learningにおける大きな課題は、破滅的な忘れ方だ。
本研究では拡散モデルに基づく新しいデータ再生手法を提案する。
我々の手法は既存のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2024-09-02T10:07:24Z) - CE-SSL: Computation-Efficient Semi-Supervised Learning for ECG-based Cardiovascular Diseases Detection [16.34314710823127]
本稿では,ECG を用いた計算効率の高い CVD 検出のための計算効率の高い半教師付き学習パラダイム (CE-SSL) を提案する。
これは、限られた監督と高い計算効率で、下流データセットに事前訓練されたモデルの堅牢な適応を可能にする。
CE-SSLは、マルチラベルCVDの検出における最先端メソッドよりも優れているだけでなく、GPUフットプリント、トレーニング時間、パラメータストレージスペースも少ない。
論文 参考訳(メタデータ) (2024-06-20T14:45:13Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis [50.31589712761807]
大規模言語モデル(LLM)は、事前トレーニング中にトークンに悩まされていることで知られており、Web上の高品質なテキストデータは、LSMのスケーリング制限に近づいている。
本研究では,事前学習データの再学習の結果について検討し,モデルが過度に適合する可能性が示唆された。
第2に, マルチエポック劣化の原因となる要因について検討し, データセットのサイズ, モデルパラメータ, トレーニング目標など, 重要な要因について検討した。
論文 参考訳(メタデータ) (2023-05-22T17:02:15Z) - BERT WEAVER: Using WEight AVERaging to enable lifelong learning for
transformer-based models in biomedical semantic search engines [49.75878234192369]
We present WEAVER, a simple, yet efficient post-processing method that infuse old knowledge into the new model。
WEAVERを逐次的に適用すると、同じ単語の埋め込み分布が、一度にすべてのデータに対する総合的なトレーニングとして得られることを示す。
論文 参考訳(メタデータ) (2022-02-21T10:34:41Z) - Transformer Networks for Data Augmentation of Human Physical Activity
Recognition [61.303828551910634]
Recurrent Generative Adrial Networks (RGAN)のような最先端技術モデルは、リアルな合成データを生成するために使用される。
本稿では,データにグローバルな注意を払っているトランスフォーマーベースの生成敵ネットワークを,PAMAP2とリアルワールドヒューマンアクティビティ認識データセットでRGANと比較する。
論文 参考訳(メタデータ) (2021-09-02T16:47:29Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。