論文の概要: Lifelong Adaptive Machine Learning for Sensor-based Human Activity
Recognition Using Prototypical Networks
- arxiv url: http://arxiv.org/abs/2203.05692v1
- Date: Fri, 11 Mar 2022 00:57:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-14 13:46:27.553577
- Title: Lifelong Adaptive Machine Learning for Sensor-based Human Activity
Recognition Using Prototypical Networks
- Title(参考訳): プロトタイプネットワークを用いたセンサに基づく人間活動認識のための生涯適応機械学習
- Authors: Rebecca Adaimi, Edison Thomaz
- Abstract要約: 連続学習は、生涯学習としても知られ、機械学習分野への関心が高まりつつある研究トピックである。
我々は,連続機械学習の分野における最近の進歩を基盤に,プロトタイプネットワーク(LPPNet-HAR)を用いた生涯適応型学習フレームワークを設計する。
LAPNet-HARは、タスクフリーなデータインクリメンタルな方法でセンサベースのデータストリームを処理する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual learning, also known as lifelong learning, is an emerging research
topic that has been attracting increasing interest in the field of machine
learning. With human activity recognition (HAR) playing a key role in enabling
numerous real-world applications, an essential step towards the long-term
deployment of such recognition systems is to extend the activity model to
dynamically adapt to changes in people's everyday behavior. Current research in
continual learning applied to HAR domain is still under-explored with
researchers exploring existing methods developed for computer vision in HAR.
Moreover, analysis has so far focused on task-incremental or class-incremental
learning paradigms where task boundaries are known. This impedes the
applicability of such methods for real-world systems since data is presented in
a randomly streaming fashion. To push this field forward, we build on recent
advances in the area of continual machine learning and design a lifelong
adaptive learning framework using Prototypical Networks, LAPNet-HAR, that
processes sensor-based data streams in a task-free data-incremental fashion and
mitigates catastrophic forgetting using experience replay and continual
prototype adaptation. Online learning is further facilitated using contrastive
loss to enforce inter-class separation. LAPNet-HAR is evaluated on 5 publicly
available activity datasets in terms of the framework's ability to acquire new
information while preserving previous knowledge. Our extensive empirical
results demonstrate the effectiveness of LAPNet-HAR in task-free continual
learning and uncover useful insights for future challenges.
- Abstract(参考訳): 連続学習は、生涯学習としても知られ、機械学習分野への関心が高まりつつある研究トピックである。
人間行動認識(HAR)が現実の多くの応用を実現する上で重要な役割を担っているため、このような認識システムの長期展開に向けた重要なステップは、人々の日常行動の変化に動的に適応するために活動モデルを拡張することである。
harドメインに適用される継続的学習の現在の研究は、harでコンピュータビジョンのために開発された既存の方法を探求する研究者によって、まだ検討中である。
さらに,タスク境界が知られているタスク増分学習パラダイムやクラス増分学習パラダイムにも注目が集まっている。
これは、データがランダムにストリーミングされた方法で提示されるため、現実のシステムに対するそのような手法の適用性を妨げる。
この領域を推し進めるために、我々は、連続機械学習の領域における最近の進歩を基盤として、センサベースのデータストリームをタスクフリーなデータインクリメンタルな方法で処理し、経験再現と連続プロトタイプ適応による破滅的な忘れを緩和する、プロトタイプネットワーク(LPPNet-HAR)を用いた生涯適応型学習フレームワークを設計する。
オンライン学習はさらに、クラス間分離を強制するためにコントラスト損失を用いて促進される。
LAPNet-HARは、フレームワークが以前の知識を保持しながら新しい情報を取得する能力の観点から、利用可能な5つのアクティビティデータセットで評価される。
課題のない連続学習におけるLAPNet-HARの有効性を実証し,今後の課題に対する有用な洞察を明らかにする。
関連論文リスト
- Transfer Learning in Human Activity Recognition: A Survey [0.13029741239874087]
センサベースのヒューマンアクティビティ認識(HAR)は、スマート環境、生活支援、フィットネス、ヘルスケアなどへの応用により、活発な研究領域となっている。
近年,ディープラーニングに基づくエンドツーエンドトレーニングにより,コンピュータビジョンや自然言語といった領域における最先端のパフォーマンスが向上している。
我々は、スマートホームとウェアラブルベースのHARのアプリケーション領域におけるこれらの伝達学習手法に焦点をあてる。
論文 参考訳(メタデータ) (2024-01-18T18:12:35Z) - PILOT: A Pre-Trained Model-Based Continual Learning Toolbox [65.57123249246358]
本稿では,PILOTとして知られるモデルベース連続学習ツールボックスについて紹介する。
一方、PILOTはL2P、DualPrompt、CODA-Promptといった事前学習モデルに基づいて、最先端のクラスインクリメンタル学習アルゴリズムを実装している。
一方、PILOTは、事前学習されたモデルの文脈に典型的なクラス増分学習アルゴリズムを適合させ、それらの効果を評価する。
論文 参考訳(メタデータ) (2023-09-13T17:55:11Z) - On Handling Catastrophic Forgetting for Incremental Learning of Human
Physical Activity on the Edge [1.4695979686066065]
PILOTEは、インクリメンタルな学習プロセスを極端にプッシュし、信頼性の高いデータプライバシと実用性を提供します。
モバイルセンサから収集した人間の活動データについて, PILOTEを広範囲にわたる実験により検証した。
論文 参考訳(メタデータ) (2023-02-18T11:55:01Z) - Deep Active Learning for Computer Vision: Past and Future [50.19394935978135]
AIモデルの開発に欠かせない役割にもかかわらず、アクティブラーニングの研究は他の研究の方向性ほど集中的ではない。
データ自動化の課題に対処し、自動化された機械学習システムに対処することによって、アクティブな学習はAI技術の民主化を促進する。
論文 参考訳(メタデータ) (2022-11-27T13:07:14Z) - Learning and Retrieval from Prior Data for Skill-based Imitation
Learning [47.59794569496233]
従来のデータから時間的に拡張された感触者スキルを抽出する,スキルベースの模倣学習フレームワークを開発した。
新規タスクの性能を著しく向上させる重要な設計選択をいくつか挙げる。
論文 参考訳(メタデータ) (2022-10-20T17:34:59Z) - Adaptive Explainable Continual Learning Framework for Regression
Problems with Focus on Power Forecasts [0.0]
この文脈における潜在的な課題を説明するために、2つの連続的な学習シナリオが提案される。
ディープニューラルネットワークは、新しいタスクを学習し、アプリケーションのデータ量が増加し続けるにつれて、古いタスクから得た知識を忘れないようにしなければならない。
研究トピックは関連しているが、連続的なディープラーニングアルゴリズムの開発、データストリームにおける非定常検出戦略、説明可能で可視化可能な人工知能などに限定されていない。
論文 参考訳(メタデータ) (2021-08-24T14:59:10Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Continual Learning in Sensor-based Human Activity Recognition: an
Empirical Benchmark Analysis [4.686889458553123]
センサーベースのヒューマンアクティビティ認識(HAR)は、スマートホーム、パーソナルヘルスケア、都市計画における多くの現実世界のアプリケーションのための重要なイネーブラーです。
HARシステムは、ゼロから再設計することなく、長期間にわたって新しいアクティビティを自律的に学習できますか?
この問題は連続学習と呼ばれ、コンピュータビジョンの分野で特に人気があります。
論文 参考訳(メタデータ) (2021-04-19T15:38:22Z) - Parrot: Data-Driven Behavioral Priors for Reinforcement Learning [79.32403825036792]
そこで本研究では,実験で得られた複雑なインプット・アウトプット関係を事前に学習する手法を提案する。
RLエージェントが新規な動作を試す能力を阻害することなく、この学習が新しいタスクを迅速に学習するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2020-11-19T18:47:40Z) - Continual Learning for Natural Language Generation in Task-oriented
Dialog Systems [72.92029584113676]
自然言語生成(NLG)はタスク指向対話システムにおいて重要な要素である。
我々は,NLGの知識を新たなドメインや機能に段階的に拡張する"継続的学習"環境で研究する。
この目標に対する大きな課題は、破滅的な忘れことであり、継続的に訓練されたモデルは、以前に学んだ知識を忘れがちである。
論文 参考訳(メタデータ) (2020-10-02T10:32:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。