論文の概要: Continual Learning at the Edge: Real-Time Training on Smartphone Devices
- arxiv url: http://arxiv.org/abs/2105.13127v1
- Date: Mon, 24 May 2021 12:00:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-28 16:42:34.789279
- Title: Continual Learning at the Edge: Real-Time Training on Smartphone Devices
- Title(参考訳): エッジでの継続的な学習:スマートフォンデバイスでのリアルタイムトレーニング
- Authors: Lorenzo Pellegrini, Vincenzo Lomonaco, Gabriele Graffieti, Davide
Maltoni
- Abstract要約: 本稿では,デバイス上でリアルタイムなパーソナライズを実現するために,ネイティブなAndroidアプリケーション上でのハイブリッド学習戦略(AR1*)の実装と展開について述べる。
我々のベンチマークはCORe50データセットの拡張に基づいており、ソリューションの有効性と有効性を示している。
- 参考スコア(独自算出の注目度): 11.250227901473952
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: On-device training for personalized learning is a challenging research
problem. Being able to quickly adapt deep prediction models at the edge is
necessary to better suit personal user needs. However, adaptation on the edge
poses some questions on both the efficiency and sustainability of the learning
process and on the ability to work under shifting data distributions. Indeed,
naively fine-tuning a prediction model only on the newly available data results
in catastrophic forgetting, a sudden erasure of previously acquired knowledge.
In this paper, we detail the implementation and deployment of a hybrid
continual learning strategy (AR1*) on a native Android application for
real-time on-device personalization without forgetting. Our benchmark, based on
an extension of the CORe50 dataset, shows the efficiency and effectiveness of
our solution.
- Abstract(参考訳): パーソナライズされた学習のためのオンデバイストレーニングは、難しい研究課題である。
個人ユーザのニーズに合うように、エッジの深い予測モデルに迅速に適応できることが不可欠です。
しかし、エッジへの適応は、学習プロセスの効率性と持続可能性、およびシフトするデータ分布の下での作業能力にいくつかの疑問をもたらす。
実際、新しく入手可能なデータのみに予測モデルを微調整すると、それまでの知識の突然の消去である壊滅的な忘れることになる。
本稿では,リアルタイムのデバイス上でのパーソナライゼーションを実現するために,ネイティブandroidアプリケーション上でar1*(hybrid continual learning strategy)の実装と展開について詳述する。
我々のベンチマークはCORe50データセットの拡張に基づいており、ソリューションの有効性と有効性を示している。
関連論文リスト
- Layer Attack Unlearning: Fast and Accurate Machine Unlearning via Layer
Level Attack and Knowledge Distillation [21.587358050012032]
本稿では,階層攻撃アンラーニング(Layer attack unlearning)と呼ばれる,高速で斬新な機械学習パラダイムを提案する。
そこで本研究では, 試料を効率よく検出する部分PGDアルゴリズムを提案する。
また,教師から意思決定境界を確実に学習するために知識蒸留(KD)も活用する。
論文 参考訳(メタデータ) (2023-12-28T04:38:06Z) - Small Dataset, Big Gains: Enhancing Reinforcement Learning by Offline
Pre-Training with Model Based Augmentation [59.899714450049494]
オフラインの事前トレーニングは、準最適ポリシーを生成し、オンライン強化学習のパフォーマンスを低下させる可能性がある。
本稿では,オフライン強化学習による事前学習のメリットを最大化し,有効となるために必要なデータの規模を削減するためのモデルベースデータ拡張戦略を提案する。
論文 参考訳(メタデータ) (2023-12-15T14:49:41Z) - Developing a Resource-Constraint EdgeAI model for Surface Defect
Detection [1.338174941551702]
資源制約のあるエッジ環境におけるデバイス上でのトレーニングのために,Xceptionから修正した軽量なEdgeAIアーキテクチャを提案する。
我々はPCB欠陥検出タスクにおけるモデルの評価を行い、その性能を既存の軽量モデルと比較した。
本手法は他のリソース制約アプリケーションにも適用できるが,性能は高い。
論文 参考訳(メタデータ) (2023-12-04T15:28:31Z) - Zero-shot Retrieval: Augmenting Pre-trained Models with Search Engines [83.65380507372483]
大規模で事前訓練されたモデルは、問題を解決するのに必要なタスク固有のデータの量を劇的に削減するが、多くの場合、ドメイン固有のニュアンスを箱から取り出すのに失敗する。
本稿では,NLPとマルチモーダル学習の最近の進歩を活用して,検索エンジン検索による事前学習モデルを強化する方法について述べる。
論文 参考訳(メタデータ) (2023-11-29T05:33:28Z) - PILOT: A Pre-Trained Model-Based Continual Learning Toolbox [71.63186089279218]
本稿では,PILOTとして知られるモデルベース連続学習ツールボックスについて紹介する。
一方、PILOTはL2P、DualPrompt、CODA-Promptといった事前学習モデルに基づいて、最先端のクラスインクリメンタル学習アルゴリズムを実装している。
一方、PILOTは、事前学習されたモデルの文脈に典型的なクラス増分学習アルゴリズムを適合させ、それらの効果を評価する。
論文 参考訳(メタデータ) (2023-09-13T17:55:11Z) - On Handling Catastrophic Forgetting for Incremental Learning of Human
Physical Activity on the Edge [1.4695979686066065]
PILOTEは、インクリメンタルな学習プロセスを極端にプッシュし、信頼性の高いデータプライバシと実用性を提供します。
モバイルセンサから収集した人間の活動データについて, PILOTEを広範囲にわたる実験により検証した。
論文 参考訳(メタデータ) (2023-02-18T11:55:01Z) - Augmented Bilinear Network for Incremental Multi-Stock Time-Series
Classification [83.23129279407271]
本稿では,有価証券のセットで事前学習したニューラルネットワークで利用可能な知識を効率的に保持する手法を提案する。
本手法では,既存の接続を固定することにより,事前学習したニューラルネットワークに符号化された事前知識を維持する。
この知識は、新しいデータを用いて最適化された一連の拡張接続によって、新しい証券に対して調整される。
論文 参考訳(メタデータ) (2022-07-23T18:54:10Z) - Knowledge Distillation as Efficient Pre-training: Faster Convergence,
Higher Data-efficiency, and Better Transferability [53.27240222619834]
効率的な事前学習としての知識蒸留は、学習した特徴表現を学習済みモデルから将来の下流タスクのための新しい学生モデルに効率的に転送することを目的としている。
提案手法は,3つの下流タスクにおける教師付き事前学習タスクと,10倍少ないデータと5倍少ない事前学習時間を必要とする9つの下流データセットとを比較検討する。
論文 参考訳(メタデータ) (2022-03-10T06:23:41Z) - Training Efficiency and Robustness in Deep Learning [2.6451769337566406]
ディープラーニングモデルのトレーニング効率と堅牢性を改善するためのアプローチについて検討する。
より情報的なトレーニングデータに基づく学習の優先順位付けは収束速度を高め、テストデータに対する一般化性能を向上させる。
トレーニングデータのサンプリングに対する冗長性を考慮した修正により、トレーニング速度が向上し、トレーニング信号の多様性を検出する効率的な方法が開発されていることを示す。
論文 参考訳(メタデータ) (2021-12-02T17:11:33Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Privacy Enhancing Machine Learning via Removal of Unwanted Dependencies [21.97951347784442]
本稿では,特定のアプリケーションに送信される前に,データ中のセンシティブな情報を除去する,教師付き・敵対型学習手法の新たな変種について検討する。
提案手法は,エンド・ツー・エンド方式で特徴マッピングと予測モデルを同時に保存するプライバシー保護を最適化する。
モバイルセンシングと顔データを用いた実験結果から,予測モデルの実用性能の維持に成功し,予測性能の低下を招いた。
論文 参考訳(メタデータ) (2020-07-30T19:55:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。