論文の概要: SparCL: Sparse Continual Learning on the Edge
- arxiv url: http://arxiv.org/abs/2209.09476v1
- Date: Tue, 20 Sep 2022 05:24:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 17:25:06.548640
- Title: SparCL: Sparse Continual Learning on the Edge
- Title(参考訳): SparCL: エッジでのスパース継続的学習
- Authors: Zifeng Wang, Zheng Zhan, Yifan Gong, Geng Yuan, Wei Niu, Tong Jian,
Bin Ren, Stratis Ioannidis, Yanzhi Wang, Jennifer Dy
- Abstract要約: 本稿では,エッジデバイス上でコスト効率のよい連続学習を実現するために,スパース連続学習(Sparse Continual Learning, SparCL)と呼ばれる新しいフレームワークを提案する。
SparCLは、重み空間、データ効率、勾配空間という3つの側面の相乗効果により、トレーニングの加速と精度の保存を両立させる。
- 参考スコア(独自算出の注目度): 43.51885725281063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing work in continual learning (CL) focuses on mitigating catastrophic
forgetting, i.e., model performance deterioration on past tasks when learning a
new task. However, the training efficiency of a CL system is
under-investigated, which limits the real-world application of CL systems under
resource-limited scenarios. In this work, we propose a novel framework called
Sparse Continual Learning(SparCL), which is the first study that leverages
sparsity to enable cost-effective continual learning on edge devices. SparCL
achieves both training acceleration and accuracy preservation through the
synergy of three aspects: weight sparsity, data efficiency, and gradient
sparsity. Specifically, we propose task-aware dynamic masking (TDM) to learn a
sparse network throughout the entire CL process, dynamic data removal (DDR) to
remove less informative training data, and dynamic gradient masking (DGM) to
sparsify the gradient updates. Each of them not only improves efficiency, but
also further mitigates catastrophic forgetting. SparCL consistently improves
the training efficiency of existing state-of-the-art (SOTA) CL methods by at
most 23X less training FLOPs, and, surprisingly, further improves the SOTA
accuracy by at most 1.7%. SparCL also outperforms competitive baselines
obtained from adapting SOTA sparse training methods to the CL setting in both
efficiency and accuracy. We also evaluate the effectiveness of SparCL on a real
mobile phone, further indicating the practical potential of our method.
- Abstract(参考訳): 継続学習(CL)における既存の作業は、破滅的な忘れ、すなわち新しいタスクを学ぶ際の過去のタスクのパフォーマンス劣化を緩和することに焦点を当てている。
しかし、CLシステムのトレーニング効率は未定であり、リソース制限シナリオ下でのCLシステムの現実的な適用を制限する。
本稿では,エッジデバイス上でのコスト効率の高い連続学習を実現するために,スパース性を活用した最初の研究であるsparcl(sparse continual learning)という新しいフレームワークを提案する。
SparCLは、重み空間、データ効率、勾配空間という3つの側面の相乗効果によって、トレーニングの加速と精度の維持を実現する。
具体的には,clプロセス全体を通してスパースネットワークを学習するタスクアウェア動的マスキング(tdm),情報の少ないトレーニングデータを削除する動的データ除去(ddr),勾配更新をスパース化する動的勾配マスキング(dgm)を提案する。
それぞれが効率を向上させるだけでなく、壊滅的な忘れを更に緩和する。
sparcl は既存の state-of-the-art (sota) cl 法のトレーニング効率を少なくとも 23 倍に向上させ、驚くべきことに sota の精度を最大 1.7%向上させた。
また、SparCLは、SOTAスパース訓練法をCL設定に適応させることで得られる競合ベースラインを効率と精度の両方で上回る。
また,実際の携帯電話におけるsparclの有効性を評価し,本手法の実用性を示す。
関連論文リスト
- Efficient Continual Learning with Low Memory Footprint For Edge Device [6.818488262543482]
本稿では,連続学習の忘れる問題を解くために,LightCLと呼ばれるコンパクトアルゴリズムを提案する。
まず,CLにおける可塑性学習とメモリ安定性の2つの新しい指標を提案する。
実験的な比較では、LightCLは忘れるのを遅らせる他のSOTAメソッドよりも優れており、最大$textbf6.16$times$$$メモリフットプリントを削減している。
論文 参考訳(メタデータ) (2024-07-15T08:52:20Z) - Continual Learning on a Diet: Learning from Sparsely Labeled Streams Under Constrained Computation [123.4883806344334]
本研究では,学習アルゴリズムが学習段階ごとに制限された計算予算を付与する,現実的な連続学習環境について検討する。
この設定を,スパースラベル率の高い大規模半教師付き連続学習シナリオに適用する。
広範に分析と改善を行った結果,DietCLはラベル空間,計算予算,その他様々な改善の完全な範囲で安定していることがわかった。
論文 参考訳(メタデータ) (2024-04-19T10:10:39Z) - LifeLearner: Hardware-Aware Meta Continual Learning System for Embedded
Computing Platforms [17.031135153343502]
継続学習(CL)は、ユーザのパーソナライズや家庭用ロボットといったアプリケーションが、リアルタイムで学習し、コンテキストに適応することを可能にする。
LifeLearnerは、システムリソースを劇的に最適化するハードウェア対応のメタ学習システムである。
LifeLearnerは、Oracleのベースラインに比べて精度がわずか2.8%低下した、ほぼ最適のCLパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-11-19T20:39:35Z) - A Comprehensive Study of Privacy Risks in Curriculum Learning [25.57099711643689]
有意義な順序でデータで機械学習モデルをトレーニングすることは、トレーニングプロセスの加速に有効であることが証明されている。
重要な実現技術はカリキュラム学習(CL)であり、大きな成功を収め、画像やテキストの分類などの分野に展開されてきた。
しかし、CLが機械学習のプライバシーにどのように影響するかは不明だ。
論文 参考訳(メタデータ) (2023-10-16T07:06:38Z) - Does Continual Learning Equally Forget All Parameters? [55.431048995662714]
連続学習(CL)における分散シフト(タスクやドメインシフトなど)は通常、ニューラルネットワークを壊滅的に忘れてしまう。
ニューラルネットワークのどのモジュールが、CL中のトレーニングダイナミクスを調査することによって忘れやすいかを検討する。
CL中に周期的にトリガされるFPFの1段階ごとのリプレイを完全に取り除き,わずか$k$で置き換える,より効率的でシンプルな手法を提案する。
論文 参考訳(メタデータ) (2023-04-09T04:36:24Z) - Online Convolutional Re-parameterization [51.97831675242173]
2段階のパイプラインであるオンライン畳み込み再パラメータ化(OREPA)は、複雑なトレーニング時間ブロックを単一の畳み込みに絞ることで、巨大なトレーニングオーバーヘッドを低減することを目的としている。
最先端のre-paramモデルと比較して、OREPAはトレーニング時間のメモリコストを約70%削減し、トレーニング速度を約2倍向上させることができる。
また、オブジェクト検出とセマンティックセグメンテーションの実験を行い、下流タスクに一貫した改善を示す。
論文 参考訳(メタデータ) (2022-04-02T09:50:19Z) - Efficient Few-Shot Object Detection via Knowledge Inheritance [62.36414544915032]
Few-shot Object Detection (FSOD) は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器を学習することを目的としている。
計算量の増加を伴わない効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
また,予測された新しいウェイトと事前訓練されたベースウェイトとのベクトル長の不整合を軽減するために,適応長再スケーリング(ALR)戦略を提案する。
論文 参考訳(メタデータ) (2022-03-23T06:24:31Z) - MEST: Accurate and Fast Memory-Economic Sparse Training Framework on the
Edge [72.16021611888165]
本稿では,エッジデバイス上での高精度かつ高速な実行を目的とした,メモリ・エコノミクス・スパース・トレーニング(MEST)フレームワークを提案する。
提案されているMESTフレームワークは、Elastic Mutation (EM)とSoft Memory Bound (&S)による拡張で構成されている。
以上の結果から,スペーサマスクの動的探索においても,忘れられない例をその場で特定できることが示唆された。
論文 参考訳(メタデータ) (2021-10-26T21:15:17Z) - Decoupled Contrastive Learning [23.25775900388382]
我々は,広く使用されているクロスエントロピー(InfoNCE)損失における顕著な負陽性結合(NPC)効果を同定した。
NPC効果を適切に処理することにより、非結合型コントラスト学習(DCL)目標関数に到達する。
われわれのアプローチは、200時間以内のバッチサイズ256を使用して6.9%のImageNet top-1精度を実現し、ベースラインのSimCLRを5.1%上回った。
論文 参考訳(メタデータ) (2021-10-13T16:38:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。