論文の概要: CLAD-Net: Continual Activity Recognition in Multi-Sensor Wearable Systems
- arxiv url: http://arxiv.org/abs/2509.23077v1
- Date: Sat, 27 Sep 2025 03:15:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.021885
- Title: CLAD-Net: Continual Activity Recognition in Multi-Sensor Wearable Systems
- Title(参考訳): CLAD-Net:マルチセンサウェアラブルシステムにおける連続的活動認識
- Authors: Reza Rahimi Azghan, Gautham Krishna Gudur, Mohit Malu, Edison Thomaz, Giulia Pedrielli, Pavan Turaga, Hassan Ghasemzadeh,
- Abstract要約: 我々は,過去のタスクのパフォーマンスを犠牲にすることなく,ウェアラブルセンサモデルを継続的に更新できるフレームワークであるCLAD-Netを提案する。
CLAD-Netは、長期記憶として機能する自己教師型トランスフォーマーと、知識蒸留による活動分類を訓練した教師型畳み込みニューラルネットワーク(CNN)を統合する。
PAMAP2では、CLAD-Netの最終的な精度は91.36パーセント、リプレイは8.78パーセントで、メモリベースと正規化ベースのベースラインを上回っている。
- 参考スコア(独自算出の注目度): 4.252135605345159
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rise of deep learning has greatly advanced human behavior monitoring using wearable sensors, particularly human activity recognition (HAR). While deep models have been widely studied, most assume stationary data distributions - an assumption often violated in real-world scenarios. For example, sensor data from one subject may differ significantly from another, leading to distribution shifts. In continual learning, this shift is framed as a sequence of tasks, each corresponding to a new subject. Such settings suffer from catastrophic forgetting, where prior knowledge deteriorates as new tasks are learned. This challenge is compounded by the scarcity and inconsistency of labeled data in human studies. To address these issues, we propose CLAD-Net (Continual Learning with Attention and Distillation), a framework enabling wearable-sensor models to be updated continuously without sacrificing performance on past tasks. CLAD-Net integrates a self-supervised transformer, acting as long-term memory, with a supervised Convolutional Neural Network (CNN) trained via knowledge distillation for activity classification. The transformer captures global activity patterns through cross-attention across body-mounted sensors, learning generalizable representations without labels. Meanwhile, the CNN leverages knowledge distillation to retain prior knowledge during subject-wise fine-tuning. On PAMAP2, CLAD-Net achieves 91.36 percent final accuracy with only 8.78 percent forgetting, surpassing memory-based and regularization-based baselines such as Experience Replay and Elastic Weight Consolidation. In semi-supervised settings with only 10-20 percent labeled data, CLAD-Net still delivers strong performance, demonstrating robustness to label scarcity. Ablation studies further validate each module's contribution.
- Abstract(参考訳): ディープラーニングの台頭は、ウェアラブルセンサー、特にヒューマンアクティビティ認識(HAR)を用いた人間の行動監視を大幅に進歩させた。
ディープモデルは広く研究されているが、ほとんどの場合定常的なデータ分布を仮定する。
例えば、ある被験者からのセンサデータは、他の被験者と大きく異なり、分散シフトにつながる可能性がある。
連続学習では、このシフトはタスクのシーケンスとしてフレーム化され、それぞれが新しい主題に対応する。
このような設定は破滅的な忘れ込みに悩まされ、そこでは、新しいタスクが学習されるにつれて、事前の知識が劣化する。
この課題は、人間の研究におけるラベル付きデータの不足と矛盾によって複雑化されている。
これらの課題に対処するため,従来のタスクのパフォーマンスを犠牲にすることなく,ウェアラブルセンサモデルを継続的に更新可能なフレームワークであるCLAD-Netを提案する。
CLAD-Netは、長期記憶として機能する自己教師型トランスフォーマーと、知識蒸留による活動分類を訓練した教師型畳み込みニューラルネットワーク(CNN)を統合する。
トランスフォーマーは、ボディマウントされたセンサーを横断的に横断することで、グローバルな活動パターンをキャプチャし、ラベルなしで一般化可能な表現を学習する。
一方、CNNは知識蒸留を利用して、主観的な微調整中に事前の知識を保持する。
PAMAP2では、CLAD-Netが91.36パーセントの最終的な精度を達成し、わずか8.78パーセントのメモリベースベースと、エクスペリエンス・リプレイやElastic Weight Consolidationといった正規化ベースラインを越えている。
10~20%のラベル付きデータしか持たない半教師付き設定では、CLAD-Netは依然として強力なパフォーマンスを提供し、ラベルの不足を証明している。
アブレーション研究は各モジュールの寄与をさらに検証する。
関連論文リスト
- Sensor Data Augmentation from Skeleton Pose Sequences for Improving Human Activity Recognition [5.669438716143601]
HAR(Human Activity Recognition)は、ディープラーニングの普及に大きく貢献していない。
本稿では,センサをベースとしたウェアラブル型HARに対して,ポーズ・ツー・センサ・ネットワークモデルを導入することにより,新たなアプローチを提案する。
コントリビューションには、同時トレーニングの統合、直接ポーズ・ツー・センサ生成、MM-Fitデータセットの包括的な評価が含まれる。
論文 参考訳(メタデータ) (2024-04-25T10:13:18Z) - COOLer: Class-Incremental Learning for Appearance-Based Multiple Object
Tracking [32.47215340215641]
本稿では,連続学習研究の範囲を,複数物体追跡(MOT)のためのクラス増分学習に拡張する。
オブジェクト検出器の連続学習のための従来のソリューションは、外見に基づくトラッカーのデータ関連ステージには対応していない。
我々は,Contrastive- and cOntinual-LearningベースのトラッカーであるCOOLerを紹介した。
論文 参考訳(メタデータ) (2023-10-04T17:49:48Z) - Kaizen: Practical Self-supervised Continual Learning with Continual
Fine-tuning [21.36130180647864]
モデルをスクラッチからトレーニングして、新たに生成されたデータに適応することは、時間がかかり非効率である。
破滅的な忘れを軽減できるトレーニングアーキテクチャを導入します。
Kaizenは、競争力のあるビジョンベンチマークにおいて、以前のSSLモデルを大きく上回っている。
論文 参考訳(メタデータ) (2023-03-30T09:08:57Z) - A Generic Shared Attention Mechanism for Various Backbone Neural Networks [53.36677373145012]
自己注意モジュール(SAM)は、異なる層にまたがる強い相関した注意マップを生成する。
Dense-and-Implicit Attention (DIA)はSAMをレイヤ間で共有し、長期間のメモリモジュールを使用する。
我々のシンプルで効果的なDIAは、様々なネットワークバックボーンを一貫して拡張できます。
論文 参考訳(メタデータ) (2022-10-27T13:24:08Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Towards Reducing Labeling Cost in Deep Object Detection [61.010693873330446]
本稿では,検知器の不確実性と頑健性の両方を考慮した,アクティブラーニングのための統一的なフレームワークを提案する。
提案手法は, 確率分布のドリフトを抑えながら, 極めて確実な予測を擬似ラベル化することができる。
論文 参考訳(メタデータ) (2021-06-22T16:53:09Z) - Sense and Learn: Self-Supervision for Omnipresent Sensors [9.442811508809994]
我々は、生の知覚データから表現や特徴学習のためのSense and Learnというフレームワークを提案する。
これは、面倒なラベル付けプロセスに人間が関与することなく、注釈のないデータから、高レベルで広範囲に有用な特徴を学習できる補助的なタスクで構成されている。
提案手法は、教師付きアプローチと競合する結果を達成し、ネットワークを微調整し、ほとんどの場合、下流タスクを学習することでギャップを埋める。
論文 参考訳(メタデータ) (2020-09-28T11:57:43Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - Laplacian Denoising Autoencoder [114.21219514831343]
本稿では,新しいタイプの自動符号化器を用いてデータ表現を学習することを提案する。
勾配領域における潜伏クリーンデータを破損させて雑音入力データを生成する。
いくつかのビジュアルベンチマークの実験では、提案されたアプローチでより良い表現が学べることが示されている。
論文 参考訳(メタデータ) (2020-03-30T16:52:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。