論文の概要: LCQNN: Linear Combination of Quantum Neural Networks
- arxiv url: http://arxiv.org/abs/2507.02832v1
- Date: Thu, 03 Jul 2025 17:43:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:16.782324
- Title: LCQNN: Linear Combination of Quantum Neural Networks
- Title(参考訳): LCQNN:量子ニューラルネットワークの線形結合
- Authors: Hongshun Yao, Xia Liu, Mingrui Jing, Xin Wang,
- Abstract要約: トレーニング性と表現性のバランスをとるLCQNN(Linear Combination of Quantum Neural Networks)というフレームワークを導入する。
LCQNNは、過度の古典的シミュラビリティを発生させることなく、消滅する勾配を減らすことができるチューニング可能な設計を提供する。
これらの結果は、マルチキュービットシステムのQNN機能拡張に関する以前の議論と一致している。
- 参考スコア(独自算出の注目度): 5.5895006587098255
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum neural networks combine quantum computing with advanced data-driven methods, offering promising applications in quantum machine learning. However, the optimal paradigm of quantum neural networks in the context trainability and expressivity remains an open question. To overcome this issue, we first introduce a framework called Linear Combination of Quantum Neural Networks (LCQNN), which leverages the linear combination of unitaries concept to coordinate the composition of QNNs, thereby balancing trainability and expressivity. Secondly, LCQNN provides a tunable design that can reduce vanishing gradients without incurring excessive classical simulability. Specifically, we detail how restricting certain subspaces or adopting $k$-local control unitaries prevents gradients from collapsing while maintaining enough parameter volume for complex tasks. These findings also align with prior discussions on expanding QNN capabilities for multi-qubit systems. Additionally, we extend the LCQNN to the group action scenarios. By exploiting symmetry, the LCQNN model, excluding exponentially large irreducible subspaces, can circumvent barren plateaus. Overall, LCQNN provides a novel framework for focusing quantum resources into architectures that remain practically trainable yet expressive enough to tackle challenging machine-learning applications.
- Abstract(参考訳): 量子ニューラルネットワークは、量子コンピューティングと高度なデータ駆動手法を組み合わせることで、量子機械学習における有望な応用を提供する。
しかし、文脈の訓練性と表現性における量子ニューラルネットワークの最適パラダイムは、依然として未解決の問題である。
この問題を解決するために,我々はまず,量子ニューラルネットワークの線形結合(Linear Combination of Quantum Neural Networks,LCQNN)というフレームワークを導入する。
次にLCQNNは、過度の古典的シミュラビリティを発生させることなく、消失する勾配を低減できるチューニング可能な設計を提供する。
具体的には、特定の部分空間を制限するか、あるいは$k$ローカルな制御ユニタリを採用することで、複雑なタスクに十分なパラメータボリュームを維持しながら、勾配が崩壊することを防ぐ方法について詳述する。
これらの結果は、マルチキュービットシステムのQNN機能拡張に関する以前の議論とも一致している。
さらに、LCQNNをグループアクションシナリオに拡張する。
対称性を利用することで、指数関数的に大きな既約部分空間を除くLCQNNモデルはバレンプラトーを回避できる。
全体として、LCQNNは、機械学習アプリケーションに挑戦するのに十分なトレーニングが可能で表現力のあるアーキテクチャに量子リソースを集中する新しいフレームワークを提供する。
関連論文リスト
- Quantum Simplicial Neural Networks [11.758402121933996]
最初の量子トポロジカル深層学習モデル:量子単純ネットワーク(QSN)を提案する。
QSNは量子Simplicial Layerのスタックであり、Isingモデルにインスパイアされ、高次構造を量子状態にエンコードする。
合成分類タスクの実験により、QSNは古典的な単純なTDLモデルよりも精度と効率で優れていることが示された。
論文 参考訳(メタデータ) (2025-01-09T20:07:25Z) - A Quantum-Classical Collaborative Training Architecture Based on Quantum
State Fidelity [50.387179833629254]
我々は,コ・テンク (co-TenQu) と呼ばれる古典量子アーキテクチャを導入する。
Co-TenQuは古典的なディープニューラルネットワークを41.72%まで向上させる。
他の量子ベースの手法よりも1.9倍も優れており、70.59%少ない量子ビットを使用しながら、同様の精度を達成している。
論文 参考訳(メタデータ) (2024-02-23T14:09:41Z) - Variational Quantum Neural Networks (VQNNS) in Image Classification [0.0]
本稿では,量子最適化アルゴリズムを用いて量子ニューラルネットワーク(QNN)のトレーニングを行う方法について検討する。
本稿では、変分量子ニューラルネットワーク(VQNN)と呼ばれる入力層として、変分パラメータ化回路を組み込んだQNN構造を作成する。
VQNNは、MNIST桁認識(複雑でない)とクラック画像分類データセットで実験され、QNNよりも少ない時間で、適切なトレーニング精度で計算を収束させる。
論文 参考訳(メタデータ) (2023-03-10T11:24:32Z) - Towards Neural Variational Monte Carlo That Scales Linearly with System
Size [67.09349921751341]
量子多体問題(Quantum many-body problem)は、例えば高温超伝導体のようなエキゾチックな量子現象をデミストする中心である。
量子状態を表すニューラルネットワーク(NN)と変分モンテカルロ(VMC)アルゴリズムの組み合わせは、そのような問題を解決する上で有望な方法であることが示されている。
ベクトル量子化技術を用いて,VMCアルゴリズムの局所エネルギー計算における冗長性を利用するNNアーキテクチャVector-Quantized Neural Quantum States (VQ-NQS)を提案する。
論文 参考訳(メタデータ) (2022-12-21T19:00:04Z) - Power and limitations of single-qubit native quantum neural networks [5.526775342940154]
量子ニューラルネットワーク(QNN)は、機械学習、化学、最適化の応用を確立するための主要な戦略として登場した。
量子ニューラルネットワークのデータ再アップロードの表現能力に関する理論的枠組みを定式化する。
論文 参考訳(メタデータ) (2022-05-16T17:58:27Z) - Optimizing Tensor Network Contraction Using Reinforcement Learning [86.05566365115729]
本稿では,グラフニューラルネットワーク(GNN)と組み合わせた強化学習(RL)手法を提案する。
この問題は、巨大な検索スペース、重い尾の報酬分布、そして困難なクレジット割り当てのために非常に難しい。
GNNを基本方針として利用するRLエージェントが,これらの課題にどのように対処できるかを示す。
論文 参考訳(メタデータ) (2022-04-18T21:45:13Z) - Branching Quantum Convolutional Neural Networks [0.0]
小型量子コンピュータは、大規模量子および非常に大規模な古典的データセット上での学習タスクにおいて、既に潜在的な増加を見せている。
本稿では、分岐量子畳み込みニューラルネットワークであるQCNN(bQCNN)を、かなり高い表現性で一般化する。
論文 参考訳(メタデータ) (2020-12-28T19:00:03Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Entanglement Classification via Neural Network Quantum States [58.720142291102135]
本稿では、学習ツールと量子絡み合いの理論を組み合わせて、純状態における多部量子ビット系の絡み合い分類を行う。
我々は、ニューラルネットワーク量子状態(NNS)として知られる制限されたボルツマンマシン(RBM)アーキテクチャにおいて、人工ニューラルネットワークを用いた量子システムのパラメータ化を用いる。
論文 参考訳(メタデータ) (2019-12-31T07:40:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。