論文の概要: Beyond Barren Plateaus: A Scalable Quantum Convolutional Architecture for High-Fidelity Image Classification
- arxiv url: http://arxiv.org/abs/2603.11131v1
- Date: Wed, 11 Mar 2026 15:57:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.535348
- Title: Beyond Barren Plateaus: A Scalable Quantum Convolutional Architecture for High-Fidelity Image Classification
- Title(参考訳): Barren Plateausを超えて - 高忠実度画像分類のためのスケーラブルな量子畳み込みアーキテクチャ
- Authors: Radhakrishnan Delhibabu,
- Abstract要約: 量子畳み込みニューラルネットワーク(QCNN)は量子機械学習の理論的パラダイムを提供する。
しかし、実装は不毛の台地(勾配の指数的な消滅)と経験的正確さの不足によってボトルネックになっている。
ローカライズされたコスト関数とハードウェア効率の良いテンソルネットワークを用いた新しいQCNNアーキテクチャを提案する。
MNISTデータセット上でスケーラブルなQCNNを評価し,大幅な性能向上を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Quantum Convolutional Neural Networks (QCNNs) offer a theoretical paradigm for quantum machine learning, their practical implementation is severely bottlenecked by barren plateaus -- the exponential vanishing of gradients -- and poor empirical accuracy compared to classical counterparts. In this work, we propose a novel QCNN architecture utilizing localized cost functions and a hardware-efficient tensor-network initialization strategy to provably mitigate barren plateaus. We evaluate our scalable QCNN on the MNIST dataset, demonstrating a significant performance leap. By resolving the gradient vanishing issue, our optimized QCNN achieves a classification accuracy of 98.7\%, a substantial improvement over the baseline QCNN accuracy of 52.32\% found in unmitigated models. Furthermore, we provide empirical evidence of a parameter-efficiency advantage, requiring $\mathcal{O}(\log N)$ fewer trainable parameters than equivalent classical CNNs to achieve $>95\%$ convergence. This work bridges the gap between theoretical quantum utility and practical application, providing a scalable framework for quantum computer vision tasks without succumbing to loss landscape concentration.
- Abstract(参考訳): 量子畳み込みニューラルネットワーク(Quantum Convolutional Neural Networks, QCNN)は量子機械学習の理論的パラダイムを提供するが、その実践的実装は、勾配の指数的消滅であるバレンプラトー(Barren Plateaus)によって著しくボトルネック化され、古典的なものに比べて経験的精度が劣っている。
本研究では,ローカライズされたコスト関数とハードウェア効率の良いテンソルネットワーク初期化戦略を利用した新しいQCNNアーキテクチャを提案する。
MNISTデータセット上でスケーラブルなQCNNを評価し,大幅な性能向上を示した。
勾配消滅問題を解くことにより、最適化されたQCNNは98.7\%の分類精度を達成し、未緩和モデルでは52.32\%のベースラインQCNN精度を大幅に改善した。
さらに、等価な古典的CNNよりもトレーニング可能なパラメータが少ない$\mathcal{O}(\log N)$で、$>95\%$収束する。
この研究は、理論量子ユーティリティと実用的な応用のギャップを埋め、ランドスケープの集中をなくすことなく、量子コンピュータビジョンタスクのためのスケーラブルなフレームワークを提供する。
関連論文リスト
- TensorHyper-VQC: A Tensor-Train-Guided Hypernetwork for Robust and Scalable Variational Quantum Computing [50.95799256262098]
量子機械学習のための新しいテンソルトレイン(TT)誘導ハイパーネットワークフレームワークであるHyper-VQCを紹介する。
我々のフレームワークは、量子回路パラメータの生成を古典的なTTネットワークに委譲し、量子ハードウェアから最適化を効果的に分離する。
これらの結果から、Hyper-VQCは、短期デバイス上での実用的な量子機械学習を促進するためのスケーラブルで耐雑音性のあるフレームワークとして位置づけられる。
論文 参考訳(メタデータ) (2025-08-01T23:37:55Z) - Efficient Quantum Convolutional Neural Networks for Image Classification: Overcoming Hardware Constraints [2.3895835682351287]
量子畳み込みニューラルネットワーク(CNN)は、古典的アプローチを上回る可能性を秘めている。
本稿では,入力次元を大幅に削減する符号化方式を提案する。
我々はIBMのHeron r2量子プロセッサの実験を検証し、分類精度は96.08%である。
論文 参考訳(メタデータ) (2025-05-09T11:09:52Z) - Quantum-Trained Convolutional Neural Network for Deepfake Audio Detection [3.2927352068925444]
ディープフェイク技術は プライバシー セキュリティ 情報整合性に 課題をもたらす
本稿では,ディープフェイク音声の検出を強化するために,量子学習型畳み込みニューラルネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-11T20:52:10Z) - Coherent Feed Forward Quantum Neural Network [2.1178416840822027]
量子ニューラルネットワーク(QNN)に焦点をあてた量子機械学習は、いまだに膨大な研究分野である。
適応可能な中間層とノードの観点から,従来のFFNNの汎用性とシームレスに整合するボナフェイドQNNモデルを提案する。
本研究では,診断乳がん(Wisconsin)やクレジットカード不正検出データセットなど,さまざまなベンチマークデータセットを用いて提案モデルを検証した。
論文 参考訳(メタデータ) (2024-02-01T15:13:26Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - AQD: Towards Accurate Fully-Quantized Object Detection [94.06347866374927]
本稿では,浮動小数点演算を除去するために,AQDと呼ばれる高精度な量子化オブジェクト検出ソリューションを提案する。
我々のAQDは、非常に低ビットのスキームの下での完全精度と比較して、同等またはそれ以上の性能を実現しています。
論文 参考訳(メタデータ) (2020-07-14T09:07:29Z) - Trainability of Dissipative Perceptron-Based Quantum Neural Networks [0.8258451067861933]
分散QNN (Dissipative QNNs) と呼ばれる最近提案されたアーキテクチャの勾配スケーリング(従ってトレーニング容易性)を分析した。
DQNNは不規則な高原(すなわち、量子ビット数で指数関数的に消える勾配)を示すことができる。
論文 参考訳(メタデータ) (2020-05-26T00:59:09Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。