論文の概要: Soft-Dropout: A Practical Approach for Mitigating Overfitting in Quantum
Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2309.01829v1
- Date: Mon, 4 Sep 2023 21:46:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 17:15:37.298649
- Title: Soft-Dropout: A Practical Approach for Mitigating Overfitting in Quantum
Convolutional Neural Networks
- Title(参考訳): ソフトドロップアウト:量子畳み込みニューラルネットワークにおけるオーバーフィッティング緩和のための実用的なアプローチ
- Authors: Aakash Ravindra Shinde, Charu Jain, and Amir Kalev
- Abstract要約: 本稿では, 過度に適合する緩和法の一つとして, 減算法(ポストトレーニング)を量子環境に適応させる手法について検討する。
我々は、この効果がQCNNにおける絡み合いの重要な役割と、QCNNの絡み合い損失に対する脆弱性を明らかにすることを論じる。
- 参考スコア(独自算出の注目度): 0.24578723416255752
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Quantum convolutional neural network (QCNN), an early application for quantum
computers in the NISQ era, has been consistently proven successful as a machine
learning (ML) algorithm for several tasks with significant accuracy. Derived
from its classical counterpart, QCNN is prone to overfitting. Overfitting is a
typical shortcoming of ML models that are trained too closely to the availed
training dataset and perform relatively poorly on unseen datasets for a similar
problem. In this work we study the adaptation of one of the most successful
overfitting mitigation method, knows as the (post-training) dropout method, to
the quantum setting. We find that a straightforward implementation of this
method in the quantum setting leads to a significant and undesirable
consequence: a substantial decrease in success probability of the QCNN. We
argue that this effect exposes the crucial role of entanglement in QCNNs and
the vulnerability of QCNNs to entanglement loss. To handle overfitting, we
proposed a softer version of the dropout method. We find that the proposed
method allows us to handle successfully overfitting in the test cases.
- Abstract(参考訳): NISQ時代の量子コンピュータの初期の応用である量子畳み込みニューラルネットワーク(QCNN)は、いくつかのタスクに対する機械学習(ML)アルゴリズムとして一貫して成功している。
従来のQCNNから派生したQCNNは、過度に適合する傾向にある。
オーバーフィッティング(overfitting)は、マシンラーニングモデルの典型的な欠点であり、使用済みのトレーニングデータセットにあまりにも親密にトレーニングされ、同様の問題に対して、未認識のデータセットに対して比較的性能が低下する。
本研究は, 量子環境における過適合緩和法として最も成功した手法の1つである(ポストトレーニング後)ドロップアウト法の適応性について検討する。
量子環境におけるこの手法の直接的実装は、qcnnの成功確率の大幅な低下という、重要かつ望ましくない結果をもたらすことが判明した。
我々は、この効果がQCNNにおける絡み合いの重要な役割と、QCNNの絡み合い損失に対する脆弱性を明らかにすることを論じる。
オーバーフィッティングに対処するため,我々はドロップアウト方式のソフトバージョンを提案した。
提案手法により,テストケースでのオーバーフィッティングをうまく処理できることがわかった。
関連論文リスト
- Coherent Feed Forward Quantum Neural Network [2.1178416840822027]
量子ニューラルネットワーク(QNN)に焦点をあてた量子機械学習は、いまだに膨大な研究分野である。
適応可能な中間層とノードの観点から,従来のFFNNの汎用性とシームレスに整合するボナフェイドQNNモデルを提案する。
本研究では,診断乳がん(Wisconsin)やクレジットカード不正検出データセットなど,さまざまなベンチマークデータセットを用いて提案モデルを検証した。
論文 参考訳(メタデータ) (2024-02-01T15:13:26Z) - Splitting and Parallelizing of Quantum Convolutional Neural Networks for
Learning Translationally Symmetric Data [0.0]
分割並列化QCNN(sp-QCNN)と呼ばれる新しいアーキテクチャを提案する。
量子回路を翻訳対称性に基づいて分割することにより、sp-QCNNはキュービット数を増やすことなく従来のQCNNを実質的に並列化することができる。
本稿では,sp-QCNNが従来のQCNNと同等の分類精度を達成でき,必要な測定資源を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2023-06-12T18:00:08Z) - Problem-Dependent Power of Quantum Neural Networks on Multi-Class
Classification [83.20479832949069]
量子ニューラルネットワーク(QNN)は物理世界を理解する上で重要なツールとなっているが、その利点と限界は完全には理解されていない。
本稿では,多クラス分類タスクにおけるQCの問題依存力について検討する。
我々の研究はQNNの課題依存力に光を当て、その潜在的なメリットを評価するための実践的なツールを提供する。
論文 参考訳(メタデータ) (2022-12-29T10:46:40Z) - QVIP: An ILP-based Formal Verification Approach for Quantized Neural
Networks [14.766917269393865]
量子化は、浮動小数点数に匹敵する精度でニューラルネットワークのサイズを減らすための有望な技術として登場した。
そこで本研究では,QNNに対する新しい,効率的な形式検証手法を提案する。
特に、QNNの検証問題を整数線形制約の解法に還元する符号化を初めて提案する。
論文 参考訳(メタデータ) (2022-12-10T03:00:29Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Scalable Quantum Convolutional Neural Networks [12.261689483681145]
我々は、スケーラブル量子畳み込みニューラルネットワーク(sQCNN)と呼ばれる量子ニューラルネットワーク(QCNN)の新バージョンを提案する。
さらに、QCの忠実度を用いて、sQCNNの性能を最大化する逆忠実度トレーニング(RF-Train)と呼ばれるsQCNNトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-26T02:07:00Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。