論文の概要: TaskVAE: Task-Specific Variational Autoencoders for Exemplar Generation in Continual Learning for Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2506.01965v1
- Date: Sat, 10 May 2025 17:42:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-08 12:40:08.634558
- Title: TaskVAE: Task-Specific Variational Autoencoders for Exemplar Generation in Continual Learning for Human Activity Recognition
- Title(参考訳): TaskVAE:人間の活動認識のための連続学習における模範生成のためのタスク特化変分オートエンコーダ
- Authors: Bonpagna Kann, Sandra Castellanos-Paez, Romain Rombourg, Philippe Lalanda,
- Abstract要約: 継続的学習により、モデルがデータストリームの進化から学ぶことができ、事前知識の忘れを最小化できる。
本稿では,クラスインクリメンタル設定におけるリプレイベースCLのフレームワークであるTaskVAEを提案する。
すべてのタスクに対して、クラス数に関する事前の知識を必要とする伝統的なメソッドや単一のVAEに依存している伝統的なメソッドとは対照的に、TaskVAEはそのような制約なしにタスクの増加に柔軟に対応します。
- 参考スコア(独自算出の注目度): 1.0687457324219043
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning based systems become more integrated into daily life, they unlock new opportunities but face the challenge of adapting to dynamic data environments. Various forms of data shift-gradual, abrupt, or cyclic-threaten model accuracy, making continual adaptation essential. Continual Learning (CL) enables models to learn from evolving data streams while minimizing forgetting of prior knowledge. Among CL strategies, replay-based methods have proven effective, but their success relies on balancing memory constraints and retaining old class accuracy while learning new classes. This paper presents TaskVAE, a framework for replay-based CL in class-incremental settings. TaskVAE employs task-specific Variational Autoencoders (VAEs) to generate synthetic exemplars from previous tasks, which are then used to train the classifier alongside new task data. In contrast to traditional methods that require prior knowledge of the total class count or rely on a single VAE for all tasks, TaskVAE adapts flexibly to increasing tasks without such constraints. We focus on Human Activity Recognition (HAR) using IMU sensor-equipped devices. Unlike previous HAR studies that combine data across all users, our approach focuses on individual user data, better reflecting real-world scenarios where a person progressively learns new activities. Extensive experiments on 5 different HAR datasets show that TaskVAE outperforms experience replay methods, particularly with limited data, and exhibits robust performance as dataset size increases. Additionally, memory footprint of TaskVAE is minimal, being equivalent to only 60 samples per task, while still being able to generate an unlimited number of synthetic samples. The contributions lie in balancing memory constraints, task-specific generation, and long-term stability, making it a reliable solution for real-world applications in domains like HAR.
- Abstract(参考訳): 機械学習ベースのシステムが日々の生活にますます統合されるにつれて、彼らは新しい機会を解放するが、動的なデータ環境に適応するという課題に直面している。
データシフトの段階的、突然、またはサイクリックスリーテンモデルの精度が変化し、連続的な適応が不可欠となる。
継続学習(CL)により、モデルがデータストリームの進化から学習し、事前知識の忘れを最小化できる。
CL戦略の中で、リプレイベースの手法は有効であることが証明されているが、その成功はメモリ制約のバランスと、新しいクラスを学習しながら古いクラスの精度を維持することに依存している。
本稿では,クラスインクリメンタル設定におけるリプレイベースCLのフレームワークであるTaskVAEを提案する。
TaskVAEはタスク固有の変分オートエンコーダ(VAE)を使用して、以前のタスクから合成例を生成する。
すべてのタスクに対して、クラス数に関する事前の知識を必要とする伝統的なメソッドや単一のVAEに依存している伝統的なメソッドとは対照的に、TaskVAEはそのような制約なしにタスクの増加に柔軟に対応します。
We focus on Human Activity Recognition (HAR) using IMU sensor-equipped devices。
これまでのHAR研究と異なり、私たちのアプローチは個々のユーザーデータに焦点を当てており、人が徐々に新しいアクティビティを学習する現実のシナリオをよりよく反映しています。
5つの異なるHARデータセットに対する大規模な実験によると、TaskVAEは、特に限られたデータで、経験的なリプレイメソッドよりも優れており、データセットのサイズが大きくなるにつれて、堅牢なパフォーマンスを示す。
さらに、TaskVAEのメモリフットプリントは最小限であり、1タスクあたり60サンプルに相当するが、無制限の合成サンプルを生成することができる。
このコントリビューションは、メモリ制約、タスク固有の生成、長期的な安定性のバランスにある。
関連論文リスト
- Federated Continual Instruction Tuning [39.344583304181135]
フェデレートラーニング(FL)は、すべての分散データとトレーニングリソースを活用して、共同トレーニングのオーバーヘッドを軽減する可能性がある。
我々は,この現実的な課題をモデル化するために,FCIT(Federated Continual Instruction Tuning)ベンチマークを導入する。
提案手法は, 様々なレベルのデータと大惨な忘れを伴って, モデル性能を著しく向上させる。
論文 参考訳(メタデータ) (2025-03-17T07:58:06Z) - ConSense: Continually Sensing Human Activity with WiFi via Growing and Picking [19.09127252818096]
WiFiベースのヒューマンアクティビティ認識(HAR)は、様々な分野において大きな応用可能性を持っている。
新しいアクティビティが継続的に導入される動的な環境に対処するためには、WiFiベースのHARシステムは、以前に学習したものを忘れずに新しい概念を学習して適応する必要がある。
本研究では,Wi-FiベースのHARのための,軽量かつ高速適応型クラスインクリメンタル学習フレームワークであるConSenseを提案する。
論文 参考訳(メタデータ) (2025-02-18T11:20:33Z) - Adaptive Retention & Correction: Test-Time Training for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - Prior-Free Continual Learning with Unlabeled Data in the Wild [24.14279172551939]
本稿では,新しいタスクの学習モデルを段階的に更新するPFCL法を提案する。
PFCLはタスクのアイデンティティや以前のデータを知ることなく、新しいタスクを学習する。
実験の結果,PFCL法は3つの学習シナリオすべてにおいて,忘れを著しく軽減することがわかった。
論文 参考訳(メタデータ) (2023-10-16T13:59:56Z) - Task Residual for Tuning Vision-Language Models [69.22958802711017]
タスク残差調整(TaskRes)と呼ばれる視覚言語モデル(VLM)のための新しい効率的なチューニング手法を提案する。
TaskResは、トレーニング済みモデルの事前知識とターゲットタスクに関する新たな知識を明示的に分離する。
提案されたTaskResは単純だが有効であり、11のベンチマークデータセットで以前のメソッドよりも大幅に上回っている。
論文 参考訳(メタデータ) (2022-11-18T15:09:03Z) - Few-Shot Class-Incremental Learning by Sampling Multi-Phase Tasks [59.12108527904171]
モデルは新しいクラスを認識し、古いクラスに対する差別性を維持すべきである。
古いクラスを忘れずに新しいクラスを認識するタスクは、FSCIL ( few-shot class-incremental Learning) と呼ばれる。
我々は,LearnIng Multi-phase Incremental Tasks (LIMIT) によるメタラーニングに基づくFSCILの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:46:41Z) - Shared and Private VAEs with Generative Replay for Continual Learning [1.90365714903665]
継続的学習は、学習済みのタスクを忘れずに新しいタスクを学習しようとする。
既存のartificial neural network (ann)モデルのほとんどは失敗するが、人間は生涯にわたって過去の作品を思い出して同じことをする。
我々は,MNIST,Permuted MNIST(QMNIST),CIFAR100,MiniImageNetデータセットなどの視覚的連続学習ベンチマークにおいて,このハイブリッドモデルの有効性を示す。
論文 参考訳(メタデータ) (2021-05-17T06:18:36Z) - Continual Learning Using Multi-view Task Conditional Neural Networks [6.27221711890162]
従来のディープラーニングモデルは、複数のタスクを逐次学習する能力に制限がある。
再帰的なタスクを事前に知る必要のないマルチビュータスク条件ニューラルネットワーク(Mv-TCNN)を提案する。
論文 参考訳(メタデータ) (2020-05-08T01:03:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。