論文の概要: Continual learning of quantum state classification with gradient
episodic memory
- arxiv url: http://arxiv.org/abs/2203.14032v1
- Date: Sat, 26 Mar 2022 09:28:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 17:23:58.069128
- Title: Continual learning of quantum state classification with gradient
episodic memory
- Title(参考訳): 勾配エピソードメモリを用いた量子状態分類の連続学習
- Authors: Haozhen Situ, Tianxiang Lu, Minghua Pan, Lvzhou Li
- Abstract要約: 破滅的忘れという現象は、機械学習モデルが複数のタスクにわたって訓練されたときに発生する。
破滅的な忘れの問題に対処するために、いくつかの継続的な学習戦略が提案されている。
本研究では,変分量子分類器の学習に勾配エピソードメモリ法を取り入れた。
- 参考スコア(独自算出の注目度): 0.20646127669654826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual learning is one of the many areas of machine learning research. For
the goal of strong artificial intelligence that can mimic human-level
intelligence, AI systems would have the ability to adapt to ever-changing
scenarios and learn new knowledge continuously without forgetting previously
acquired knowledge. A phenomenon called catastrophic forgetting emerges when a
machine learning model is trained across multiple tasks. The model's
performance on previously learned tasks may drop dramatically during the
learning process of the newly seen task. Some continual learning strategies
have been proposed to address the catastrophic forgetting problem. Recently,
continual learning has also been studied in the context of quantum machine
learning. By leveraging the elastic weight consolidation method, a single
quantum classifier can perform multiple tasks after being trained consecutively
on those tasks. In this work, we incorporate the gradient episodic memory
method to train a variational quantum classifier. The gradient of the current
task is projected to the closest gradient, avoiding the increase of the loss at
previous tasks, but allowing the decrease. We use six quantum state
classification tasks to benchmark this method. Numerical simulation results
show that better performance is obtained compared to the elastic weight
consolidation method. Furthermore, positive transfer of knowledge to previous
tasks is observed, which means the classifier's performance on previous tasks
is enhanced rather than compromised while learning a new task.
- Abstract(参考訳): 継続的学習は機械学習研究の多くの分野の1つである。
人間のレベルの知性を模倣できる強力な人工知能の目的のために、AIシステムは、これまで獲得した知識を忘れずに、絶えず変化するシナリオに適応し、新しい知識を継続的に学習する能力を持つ。
破滅的忘れという現象は、機械学習モデルが複数のタスクにわたって訓練されたときに発生する。
先行学習タスクにおけるモデルの性能は、新しく見られるタスクの学習プロセス中に劇的に低下する可能性がある。
破滅的な忘れの問題に対処する継続的学習戦略が提案されている。
近年、連続学習は量子機械学習の文脈でも研究されている。
弾性重み強化法を利用することで、単一量子分類器は、それらのタスクを連続的に訓練した後、複数のタスクを実行することができる。
本研究では,変分量子分類器の学習に勾配エピソードメモリ法を取り入れた。
現在のタスクの勾配は最も近い勾配に投影され、前のタスクでの損失の増加を回避するが、減少が可能である。
この手法のベンチマークには6つの量子状態分類タスクを用いる。
数値シミュレーションの結果, 弾性重量凝縮法よりも優れた性能が得られた。
さらに,従来のタスクに対する知識の正の伝達が観察され,新たなタスクを学習しながら,従来のタスクに対する分類器のパフォーマンスが向上する。
関連論文リスト
- Infinite dSprites for Disentangled Continual Learning: Separating Memory
Edits from Generalization [48.765079793320346]
Infinite dSpritesは任意の長さの連続的な分類ベンチマークを作成するための擬似ツールである。
この単純なベンチマークでは、十分に長い時間をかけて、全ての主要な連続学習手法の性能が低下していることが示される。
生成因子を直接監督した簡単な設定では、学習階級に依存しない変換が破滅的な忘れを回避できる方法を示している。
論文 参考訳(メタデータ) (2023-12-27T22:05:42Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Online Continual Learning via the Knowledge Invariant and Spread-out
Properties [4.109784267309124]
継続的な学習の鍵となる課題は破滅的な忘れ方だ。
知識不変性とスプレッドアウト特性(OCLKISP)を用いたオンライン連続学習法を提案する。
提案手法を,CIFAR 100, Split SVHN, Split CUB200, Split Tiny-Image-Netの4つのベンチマークで実証的に評価した。
論文 参考訳(メタデータ) (2023-02-02T04:03:38Z) - An Evolutionary Approach to Dynamic Introduction of Tasks in Large-scale
Multitask Learning Systems [4.675744559395732]
マルチタスク学習は、複数のタスクから学習できるモデルが知識伝達によってより良い品質と効率を達成すると仮定する。
最先端のMLモデルは、タスクごとに高いカスタマイズに依存し、タスクの数をスケールするのではなく、サイズとデータスケールを活用する。
本稿では,大規模マルチタスクモデルを生成でき,新しいタスクの動的かつ連続的な追加を支援する進化的手法を提案する。
論文 参考訳(メタデータ) (2022-05-25T13:10:47Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Center Loss Regularization for Continual Learning [0.0]
一般的に、ニューラルネットワークには、さまざまなタスクを逐次学習する能力がない。
提案手法では,従来のタスクに近い新しいタスクの表現を投影することで,古いタスクを記憶する。
提案手法は,最先端の継続的学習手法と比較して,スケーラブルで効果的で,競争力のある性能を示す。
論文 参考訳(メタデータ) (2021-10-21T17:46:44Z) - DIODE: Dilatable Incremental Object Detection [15.59425584971872]
従来のディープラーニングモデルには、以前に学習した知識を保存する能力がない。
多段階インクリメンタル検出タスクのための拡張可能なインクリメンタルオブジェクト検出器(DIODE)を提案する。
提案手法は,新たに学習した各タスクのパラメータ数を1.2%増加させることで,最大6.4%の性能向上を実現する。
論文 参考訳(メタデータ) (2021-08-12T09:45:57Z) - Continual Learning via Bit-Level Information Preserving [88.32450740325005]
我々は情報理論のレンズを通して連続学習過程を研究する。
モデルパラメータの情報利得を維持するビットレベル情報保存(BLIP)を提案する。
BLIPは、連続的な学習を通してメモリオーバーヘッドを一定に保ちながら、ほとんど忘れることができない。
論文 参考訳(メタデータ) (2021-05-10T15:09:01Z) - Learning Invariant Representation for Continual Learning [5.979373021392084]
継続的学習の重要な課題は、エージェントが新しいタスクに直面したときに、以前に学んだタスクを壊滅的に忘れることです。
連続学習のための学習不変表現(IRCL)という新しい擬似リハーサル法を提案する。
共有不変表現を分離することは、タスクのシーケンスを継続的に学習するのに役立つ。
論文 参考訳(メタデータ) (2021-01-15T15:12:51Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。