論文の概要: CQural: A Novel CNN based Hybrid Architecture for Quantum Continual
Machine Learning
- arxiv url: http://arxiv.org/abs/2305.09738v1
- Date: Tue, 16 May 2023 18:19:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 18:51:51.126497
- Title: CQural: A Novel CNN based Hybrid Architecture for Quantum Continual
Machine Learning
- Title(参考訳): CQural: 量子連続機械学習のための新しいCNNベースのハイブリッドアーキテクチャ
- Authors: Sanyam Jain
- Abstract要約: 本研究では,新しい古典量子ニューラルネットを用いた連続学習において,破滅的な忘れを回避できることが示唆された。
また、モデルがこれらの説明でトレーニングされている場合、より良いパフォーマンスを与え、決定境界から遠く離れた特定の特徴を学ぶ傾向があります。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training machine learning models in an incremental fashion is not only
important but also an efficient way to achieve artificial general intelligence.
The ability that humans possess of continuous or lifelong learning helps them
to not forget previously learned tasks. However, current neural network models
are prone to catastrophic forgetting when it comes to continual learning. Many
researchers have come up with several techniques in order to reduce the effect
of forgetting from neural networks, however, all techniques are studied
classically with a very less focus on changing the machine learning model
architecture. In this research paper, we show that it is not only possible to
circumvent catastrophic forgetting in continual learning with novel hybrid
classical-quantum neural networks, but also explains what features are most
important to learn for classification. In addition, we also claim that if the
model is trained with these explanations, it tends to give better performance
and learn specific features that are far from the decision boundary. Finally,
we present the experimental results to show comparisons between classical and
classical-quantum hybrid architectures on benchmark MNIST and CIFAR-10
datasets. After successful runs of learning procedure, we found hybrid neural
network outperforms classical one in terms of remembering the right evidences
of the class-specific features.
- Abstract(参考訳): 機械学習モデルをインクリメンタルにトレーニングすることは重要であるだけでなく、人工知能を実現する効率的な方法でもある。
人間が連続的あるいは生涯学習を持つ能力は、以前に学んだタスクを忘れないように助ける。
しかし、現在のニューラルネットワークモデルは、継続的学習に関して壊滅的な忘れがちである。
多くの研究者がニューラルネットワークを忘れる効果を減らすためにいくつかのテクニックを考案しているが、すべてのテクニックは古典的に研究されており、機械学習モデルアーキテクチャの変更にはほとんど焦点を当てていない。
本稿では,新しい古典量子ニューラルネットを用いた連続学習における破滅的な忘れを回避できるだけでなく,どのような特徴が分類に最も重要であるかを説明する。
さらに、モデルがこれらの説明でトレーニングされている場合、より良いパフォーマンスを提供し、決定境界から遠い特定の特徴を学ぶ傾向があるとも主張しています。
最後に,ベンチマークMNISTとCIFAR-10データセットを用いた古典的および古典的量子ハイブリッドアーキテクチャの比較実験を行った。
学習を成功させた後、クラス固有の特徴の正しい証拠を記憶するという点で、ハイブリッドニューラルネットワークは古典的よりも優れていた。
関連論文リスト
- Hybrid deep additive neural networks [0.0]
加算回帰という概念を取り入れた新しいディープニューラルネットワークを導入する。
我々のニューラルネットワークは、Kolmogorov-Arnoldネットワークとアーキテクチャ上の類似点を共有しているが、よりシンプルで柔軟なアクティベーションと基底関数に基づいている。
我々はそれらの普遍近似特性を導出し、シミュレーション研究と実データ応用を通してその効果を実証する。
論文 参考訳(メタデータ) (2024-11-14T04:26:47Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Bridging Classical and Quantum Machine Learning: Knowledge Transfer From
Classical to Quantum Neural Networks Using Knowledge Distillation [0.0]
本稿では,知識蒸留を用いた古典的ニューラルネットワークから量子ニューラルネットワークへ知識を伝達する新しい手法を提案する。
我々は、LeNetやAlexNetのような古典的畳み込みニューラルネットワーク(CNN)アーキテクチャを教師ネットワークとして活用する。
量子モデルは、MNISTデータセットで0.80%、より複雑なFashion MNISTデータセットで5.40%の平均精度改善を達成する。
論文 参考訳(メタデータ) (2023-11-23T05:06:43Z) - Neural Networks for Programming Quantum Annealers [6.531395267592592]
量子機械学習は、古典的なコンピュータで難解な問題を解くなど、人工知能の進歩を可能にする可能性がある。
本研究では、古典的な完全分岐ニューラルネットワークを小さな量子アニールで接続する、類似しているが全く同じではない場合について考察する。
このシステムをシミュレートして、画像や音声認識など、いくつかの一般的なデータセットを学習する。
論文 参考訳(メタデータ) (2023-08-13T16:43:07Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Efficient Neural Architecture Search with Performance Prediction [0.0]
ニューラルアーキテクチャ検索を使用して、目前にあるタスクに最適なネットワークアーキテクチャを見つけます。
既存のNASアルゴリズムは、スクラッチから完全にトレーニングすることで、新しいアーキテクチャの適合性を評価する。
サンプルアーキテクチャの評価を高速化するために,エンドツーエンドのオフライン性能予測器を提案する。
論文 参考訳(メタデータ) (2021-08-04T05:44:16Z) - Incremental Deep Neural Network Learning using Classification Confidence
Thresholding [4.061135251278187]
分類のための現代のニューラルネットワークのほとんどは、未知の概念を考慮していない。
本稿では,逐次学習のための素数ニューラルネットワークに対する分類信頼度閾値アプローチを提案する。
論文 参考訳(メタデータ) (2021-06-21T22:46:28Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z) - The large learning rate phase of deep learning: the catapult mechanism [50.23041928811575]
問題解決可能なトレーニングダイナミクスを備えたニューラルネットワークのクラスを提示する。
現実的なディープラーニング環境において,モデルの予測とトレーニングのダイナミクスとの間には,よい一致がある。
我々の結果は、異なる学習率でトレーニングされたモデルの特性に光を当てたと信じています。
論文 参考訳(メタデータ) (2020-03-04T17:52:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。