論文の概要: A Post-Training Approach for Mitigating Overfitting in Quantum
Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2309.01829v2
- Date: Sun, 3 Mar 2024 13:44:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 02:51:06.650649
- Title: A Post-Training Approach for Mitigating Overfitting in Quantum
Convolutional Neural Networks
- Title(参考訳): 量子畳み込みニューラルネットワークにおけるオーバーフィッティング緩和のためのトレーニング後アプローチ
- Authors: Aakash Ravindra Shinde, Charu Jain, and Amir Kalev
- Abstract要約: 量子畳み込みニューラルネットワーク(QCNN)におけるオーバーフィッティング軽減のためのポストトレーニング手法の検討
古典的なポストトレーニング手法であるニューロトン・ドロップアウトの量子設定への直接的な適応は、QCNNの成功確率を著しく低下させる。
我々は、この効果がQCNNにおける絡み合いの重要な役割と、QCNNの絡み合い損失に対する脆弱性を明らかにすることを論じる。
- 参考スコア(独自算出の注目度): 0.24578723416255752
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Quantum convolutional neural network (QCNN), an early application for quantum
computers in the NISQ era, has been consistently proven successful as a machine
learning (ML) algorithm for several tasks with significant accuracy. Derived
from its classical counterpart, QCNN is prone to overfitting. Overfitting is a
typical shortcoming of ML models that are trained too closely to the availed
training dataset and perform relatively poorly on unseen datasets for a similar
problem. In this work we study post-training approaches for mitigating
overfitting in QCNNs. We find that a straightforward adaptation of a classical
post-training method, known as neuron dropout, to the quantum setting leads to
a significant and undesirable consequence: a substantial decrease in success
probability of the QCNN. We argue that this effect exposes the crucial role of
entanglement in QCNNs and the vulnerability of QCNNs to entanglement loss.
Hence, we propose a parameter adaptation method as an alternative method. Our
method is computationally efficient and is found to successfully handle
overfitting in the test cases.
- Abstract(参考訳): NISQ時代の量子コンピュータの初期の応用である量子畳み込みニューラルネットワーク(QCNN)は、いくつかのタスクに対する機械学習(ML)アルゴリズムとして一貫して成功している。
従来のQCNNから派生したQCNNは、過度に適合する傾向にある。
オーバーフィッティング(overfitting)は、マシンラーニングモデルの典型的な欠点であり、使用済みのトレーニングデータセットにあまりにも親密にトレーニングされ、同様の問題に対して、未認識のデータセットに対して比較的性能が低下する。
本研究では,QCNNにおけるオーバーフィッティング軽減のためのポストトレーニング手法について検討する。
古典的ポストトレーニング法であるニューロンドロップアウト法(英語版)を量子環境へ直接適応させることは、qcnnの成功確率を大幅に低下させるという、重要かつ望ましくない結果をもたらすことが判明した。
我々は、この効果がQCNNにおける絡み合いの重要な役割と、QCNNの絡み合い損失に対する脆弱性を明らかにすることを論じる。
そこで本研究では代替手法としてパラメータ適応法を提案する。
本手法は計算効率が高く,テストケースでのオーバーフィッティングをうまく処理できる。
関連論文リスト
- Coherent Feed Forward Quantum Neural Network [2.1178416840822027]
量子ニューラルネットワーク(QNN)に焦点をあてた量子機械学習は、いまだに膨大な研究分野である。
適応可能な中間層とノードの観点から,従来のFFNNの汎用性とシームレスに整合するボナフェイドQNNモデルを提案する。
本研究では,診断乳がん(Wisconsin)やクレジットカード不正検出データセットなど,さまざまなベンチマークデータセットを用いて提案モデルを検証した。
論文 参考訳(メタデータ) (2024-02-01T15:13:26Z) - Splitting and Parallelizing of Quantum Convolutional Neural Networks for
Learning Translationally Symmetric Data [0.0]
分割並列化QCNN(sp-QCNN)と呼ばれる新しいアーキテクチャを提案する。
量子回路を翻訳対称性に基づいて分割することにより、sp-QCNNはキュービット数を増やすことなく従来のQCNNを実質的に並列化することができる。
本稿では,sp-QCNNが従来のQCNNと同等の分類精度を達成でき,必要な測定資源を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2023-06-12T18:00:08Z) - Problem-Dependent Power of Quantum Neural Networks on Multi-Class
Classification [83.20479832949069]
量子ニューラルネットワーク(QNN)は物理世界を理解する上で重要なツールとなっているが、その利点と限界は完全には理解されていない。
本稿では,多クラス分類タスクにおけるQCの問題依存力について検討する。
我々の研究はQNNの課題依存力に光を当て、その潜在的なメリットを評価するための実践的なツールを提供する。
論文 参考訳(メタデータ) (2022-12-29T10:46:40Z) - QVIP: An ILP-based Formal Verification Approach for Quantized Neural
Networks [14.766917269393865]
量子化は、浮動小数点数に匹敵する精度でニューラルネットワークのサイズを減らすための有望な技術として登場した。
そこで本研究では,QNNに対する新しい,効率的な形式検証手法を提案する。
特に、QNNの検証問題を整数線形制約の解法に還元する符号化を初めて提案する。
論文 参考訳(メタデータ) (2022-12-10T03:00:29Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Scalable Quantum Convolutional Neural Networks [12.261689483681145]
我々は、スケーラブル量子畳み込みニューラルネットワーク(sQCNN)と呼ばれる量子ニューラルネットワーク(QCNN)の新バージョンを提案する。
さらに、QCの忠実度を用いて、sQCNNの性能を最大化する逆忠実度トレーニング(RF-Train)と呼ばれるsQCNNトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-26T02:07:00Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。