論文の概要: In-memory Realization of In-situ Few-shot Continual Learning with a
Dynamically Evolving Explicit Memory
- arxiv url: http://arxiv.org/abs/2207.06810v1
- Date: Thu, 14 Jul 2022 10:38:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 14:12:14.325574
- Title: In-memory Realization of In-situ Few-shot Continual Learning with a
Dynamically Evolving Explicit Memory
- Title(参考訳): 動的に進化する明示的記憶を用いた実時間Few-shot連続学習のインメモリ化
- Authors: Geethan Karunaratne, Michael Hersche, Jovin Langenegger, Giovanni
Cherubini, Manuel Le Gallo-Bourdeau, Urs Egger, Kevin Brew, Sam Choi, INJO
OK, Mary Claire Silvestre, Ning Li, Nicole Saulnier, Victor Chan, Ishtiaq
Ahsan, Vijay Narayanan, Luca Benini, Abu Sebastian, Abbas Rahimi
- Abstract要約: 古いクラスを忘れずに、いくつかのトレーニング例から新しいクラスを継続的に学習するには、柔軟なアーキテクチャが必要である。
1つの実行可能なアーキテクチャソリューションは、定常的なディープニューラルネットワークを動的に進化する明示的メモリ(EM)に密結合することである。
EMユニットが複数のトレーニング例を物理的に重畳し、未知のクラスに対応できるように拡張し、推論中に類似性検索を行う方法を初めて示す。
- 参考スコア(独自算出の注目度): 11.838117086685399
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continually learning new classes from a few training examples without
forgetting previous old classes demands a flexible architecture with an
inevitably growing portion of storage, in which new examples and classes can be
incrementally stored and efficiently retrieved. One viable architectural
solution is to tightly couple a stationary deep neural network to a dynamically
evolving explicit memory (EM). As the centerpiece of this architecture, we
propose an EM unit that leverages energy-efficient in-memory compute (IMC)
cores during the course of continual learning operations. We demonstrate for
the first time how the EM unit can physically superpose multiple training
examples, expand to accommodate unseen classes, and perform similarity search
during inference, using operations on an IMC core based on phase-change memory
(PCM). Specifically, the physical superposition of a few encoded training
examples is realized via in-situ progressive crystallization of PCM devices.
The classification accuracy achieved on the IMC core remains within a range of
1.28%--2.5% compared to that of the state-of-the-art full-precision baseline
software model on both the CIFAR-100 and miniImageNet datasets when continually
learning 40 novel classes (from only five examples per class) on top of 60 old
classes.
- Abstract(参考訳): 古いクラスを忘れずに、いくつかのトレーニング例から新しいクラスを継続的に学習するには、必然的に増大するストレージ部分を持つ柔軟なアーキテクチャが必要である。
実行可能なアーキテクチャソリューションのひとつは、定常的なディープニューラルネットワークを動的に進化する明示的メモリ(EM)に密結合することである。
このアーキテクチャの中心として、連続的な学習操作中にエネルギー効率の高いインメモリ計算(IMC)コアを利用するEMユニットを提案する。
EMユニットが複数のトレーニング例を物理的に重畳し、未知のクラスに対応できるように拡張し、位相変化メモリ(PCM)に基づくIMCコア上での動作を用いて推論中に類似性検索を行う方法について初めて示す。
具体的には、PCMデバイスのその場進行結晶化により、いくつかの符号化されたトレーニング例の物理的重ね合わせを実現する。
imcコアで達成された分類精度は、60の古いクラスで40の斬新なクラス(クラス毎にわずか5つの例から)を継続的に学習する場合、cifar-100とminiimagenetの両方の最先端のベースラインモデルと比較すると1.28%--2.5%の範囲に留まっている。
関連論文リスト
- 12 mJ per Class On-Device Online Few-Shot Class-Incremental Learning [12.768324871562891]
FSCIL(Few-Shot Class-Incremental Learning)は、いくつかのラベル付き例を使用して、機械学習システムが推論能力を新しいクラスに拡張することを可能にする。
O-FSCILは、FSCIL CIFAR100ベンチマークで68.62%の平均精度を取得し、最先端の結果を得た。
超低消費電力プラットフォーム向けに設計され、60mW GAP9マイクロコントローラにO-FSCILを実装し、新しいクラスあたり12mJ以内のオンライン学習能力を実証した。
論文 参考訳(メタデータ) (2024-03-12T17:43:20Z) - Scalable Federated Unlearning via Isolated and Coded Sharding [76.12847512410767]
フェデレートされたアンラーニングは、クライアントレベルのデータエフェクトを削除するための有望なパラダイムとして登場した。
本稿では,分散シャーディングと符号化コンピューティングに基づく,スケーラブルなフェデレーション・アンラーニング・フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T08:41:45Z) - Learning Multiscale Consistency for Self-supervised Electron Microscopy
Instance Segmentation [48.267001230607306]
本稿では,EMボリュームのマルチスケール一貫性を高める事前学習フレームワークを提案する。
当社のアプローチでは,強力なデータ拡張と弱いデータ拡張を統合することで,Siameseネットワークアーキテクチャを活用している。
効果的にボクセルと機能の一貫性をキャプチャし、EM分析のための転送可能な表現を学習する。
論文 参考訳(メタデータ) (2023-08-19T05:49:13Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - RMM: Reinforced Memory Management for Class-Incremental Learning [102.20140790771265]
クラスインクリメンタルラーニング(CIL)は、厳格な記憶予算の下で分類器を訓練する。
既存のメソッドは静的およびアドホックな戦略を使ってメモリ割り当てを行うが、これはしばしば準最適である。
本稿では,段階的な段階と異なるオブジェクトクラスに最適化された動的メモリ管理戦略を提案する。
論文 参考訳(メタデータ) (2023-01-14T00:07:47Z) - Incremental Online Learning Algorithms Comparison for Gesture and Visual
Smart Sensors [68.8204255655161]
本稿では,加速度センサデータに基づくジェスチャー認識と画像分類の2つの実例として,最先端の4つのアルゴリズムを比較した。
以上の結果から,これらのシステムの信頼性と小型メモリMCUへのデプロイの可能性が確認された。
論文 参考訳(メタデータ) (2022-09-01T17:05:20Z) - GLEAM: Greedy Learning for Large-Scale Accelerated MRI Reconstruction [50.248694764703714]
アンロールされたニューラルネットワークは、最近最先端の加速MRI再構成を達成した。
これらのネットワークは、物理ベースの一貫性とニューラルネットワークベースの正規化を交互に組み合わせることで、反復最適化アルゴリズムをアンロールする。
我々は,高次元画像設定のための効率的なトレーニング戦略である加速度MRI再構成のためのグレディ・ラーニングを提案する。
論文 参考訳(メタデータ) (2022-07-18T06:01:29Z) - Machine Learning Training on a Real Processing-in-Memory System [9.286176889576996]
機械学習アルゴリズムのトレーニングは計算集約的なプロセスであり、しばしばメモリバウンドである。
メモリ内処理機能を備えたメモリ中心のコンピューティングシステムは、このデータ移動ボトルネックを軽減することができる。
我々の研究は、現実世界の汎用PIMアーキテクチャ上で機械学習アルゴリズムのトレーニングを評価する最初のものである。
論文 参考訳(メタデータ) (2022-06-13T10:20:23Z) - Constrained Few-shot Class-incremental Learning [14.646083882851928]
古いクラスの知識を忘れずに新しいデータから新しいクラスを継続的に学習することは、非常に難しい研究課題である。
本稿では,C-FSCILを提案する。C-FSCILは,凍結したメタ学習特徴抽出器,トレーニング可能な固定サイズ全接続層,動的に成長するメモリから構成される。
C-FSCILは3つの更新モードを提供し、新しいクラスを学習する際の正確性と計算メモリコストのトレードオフを提供する。
論文 参考訳(メタデータ) (2022-03-30T18:19:36Z) - Hybrid In-memory Computing Architecture for the Training of Deep Neural
Networks [5.050213408539571]
ハードウェアアクセラレータ上でのディープニューラルネットワーク(DNN)のトレーニングのためのハイブリッドインメモリコンピューティングアーキテクチャを提案する。
HICをベースとしたトレーニングでは,ベースラインに匹敵する精度を達成するために,推論モデルのサイズが約50%小さくなることを示す。
シミュレーションの結果,HICをベースとしたトレーニングにより,PCMの耐久限界のごく一部に,デバイスによる書き込みサイクルの回数を自然に確保できることがわかった。
論文 参考訳(メタデータ) (2021-02-10T05:26:27Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。