論文の概要: LCQNN: Linear Combination of Quantum Neural Networks
- arxiv url: http://arxiv.org/abs/2507.02832v2
- Date: Mon, 04 Aug 2025 13:29:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 20:32:48.626137
- Title: LCQNN: Linear Combination of Quantum Neural Networks
- Title(参考訳): LCQNN:量子ニューラルネットワークの線形結合
- Authors: Hongshun Yao, Xia Liu, Mingrui Jing, Guangxi Li, Xin Wang,
- Abstract要約: 量子ニューラルネットワークの線形結合(LCQNN)フレームワークについて述べる。
制御ユニタリの$k$を採用する、あるいはモデルを特定の群理論部分空間に制限するといった構造的選択が、勾配の崩壊を防ぐことを示す。
群行動シナリオでは、対称性を利用して指数関数的に大きい既約部分空間を除外することにより、モデルはバレンプラトーを回避できることを示す。
- 参考スコア(独自算出の注目度): 7.010027035873597
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum neural networks combine quantum computing with advanced data-driven methods, offering promising applications in quantum machine learning. However, the optimal paradigm for balancing trainability and expressivity in QNNs remains an open question. To address this, we introduce the Linear Combination of Quantum Neural Networks (LCQNN) framework, which uses the linear combination of unitaries concept to create a tunable design that mitigates vanishing gradients without incurring excessive classical simulability. We show how specific structural choices, such as adopting $k$-local control unitaries or restricting the model to certain group-theoretic subspaces, prevent gradients from collapsing while maintaining sufficient expressivity for complex tasks. We further employ the LCQNN model to handle supervised learning tasks, demonstrating its effectiveness on real datasets. In group action scenarios, we show that by exploiting symmetry and excluding exponentially large irreducible subspaces, the model circumvents barren plateaus. Overall, LCQNN provides a novel framework for focusing quantum resources into architectures that are practically trainable yet expressive enough to tackle challenging machine learning applications.
- Abstract(参考訳): 量子ニューラルネットワークは、量子コンピューティングと高度なデータ駆動手法を組み合わせることで、量子機械学習における有望な応用を提供する。
しかし、QNNにおける訓練性と表現性のバランスをとるための最適なパラダイムは、未解決の問題である。
量子ニューラルネットワークの線形結合(LCQNN)フレームワークは、ユニタリの概念の線形結合を用いて、過度の古典的シミュラビリティを伴わずに、消失する勾配を緩和するチューナブルな設計を作成する。
例えば、$k$-local Control Unitaryを採用する、あるいは特定の群理論部分空間にモデルを限定するといった構造的選択は、複雑なタスクに対して十分な表現性を維持しながら、勾配が崩壊することを防ぐかを示す。
さらに、LCQNNモデルを用いて教師付き学習タスクを処理し、実際のデータセット上での有効性を示す。
群行動シナリオでは、対称性を利用して指数関数的に大きい既約部分空間を除外することにより、モデルはバレンプラトーを回避できることを示す。
全体として、LCQNNは、機械学習アプリケーションに挑戦するのに十分なトレーニングが可能で表現力のあるアーキテクチャに量子リソースを集中する新しいフレームワークを提供する。
関連論文リスト
- Inductive Graph Representation Learning with Quantum Graph Neural Networks [0.40964539027092917]
量子グラフニューラルネットワーク(QGNN)は、量子コンピューティングとグラフ構造化データ処理を組み合わせるための有望なアプローチを示す。
本稿では,量子モデルをアグリゲータとして利用する,古典的なグラフSAGEアプローチにインスパイアされた汎用QGNNフレームワークを提案する。
我々の量子アプローチは、回路変更を必要とせず、様々な数の原子を持つ分子をまたいだ堅牢な一般化を示す。
論文 参考訳(メタデータ) (2025-03-31T14:04:08Z) - Single-Qudit Quantum Neural Networks for Multiclass Classification [0.0]
本稿では,マルチクラス分類のための単一量子ニューラルネットワークを提案する。
我々の設計では$d$次元のユニタリ演算子を使用し、$d$はクラスの数に対応する。
我々は,MNISTデータセットとEMNISTデータセットを用いたモデルの評価を行い,競合精度を実証した。
論文 参考訳(メタデータ) (2025-03-12T11:12:05Z) - Quantum Simplicial Neural Networks [11.758402121933996]
最初の量子トポロジカル深層学習モデル:量子単純ネットワーク(QSN)を提案する。
QSNは量子Simplicial Layerのスタックであり、Isingモデルにインスパイアされ、高次構造を量子状態にエンコードする。
合成分類タスクの実験により、QSNは古典的な単純なTDLモデルよりも精度と効率で優れていることが示された。
論文 参考訳(メタデータ) (2025-01-09T20:07:25Z) - Quantum Pointwise Convolution: A Flexible and Scalable Approach for Neural Network Enhancement [0.0]
本稿では,量子ニューラルネットワークフレームワークにポイントワイズ畳み込みを組み込んだ新しいアーキテクチャを提案する。
量子回路を用いてデータを高次元空間にマッピングし、より複雑な特徴関係を捉える。
実験では、FashionMNISTとCIFAR10データセットの分類タスクに量子ポイントワイズ畳み込み層を適用した。
論文 参考訳(メタデータ) (2024-12-02T08:03:59Z) - Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - A Quantum-Classical Collaborative Training Architecture Based on Quantum
State Fidelity [50.387179833629254]
我々は,コ・テンク (co-TenQu) と呼ばれる古典量子アーキテクチャを導入する。
Co-TenQuは古典的なディープニューラルネットワークを41.72%まで向上させる。
他の量子ベースの手法よりも1.9倍も優れており、70.59%少ない量子ビットを使用しながら、同様の精度を達成している。
論文 参考訳(メタデータ) (2024-02-23T14:09:41Z) - Coreset selection can accelerate quantum machine learning models with
provable generalization [6.733416056422756]
量子ニューラルネットワーク(QNN)と量子カーネルは、量子機械学習の領域において顕著な存在である。
我々は、QNNと量子カーネルのトレーニングを高速化することを目的とした、コアセット選択という統一的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-19T08:59:46Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Variational Quantum Neural Networks (VQNNS) in Image Classification [0.0]
本稿では,量子最適化アルゴリズムを用いて量子ニューラルネットワーク(QNN)のトレーニングを行う方法について検討する。
本稿では、変分量子ニューラルネットワーク(VQNN)と呼ばれる入力層として、変分パラメータ化回路を組み込んだQNN構造を作成する。
VQNNは、MNIST桁認識(複雑でない)とクラック画像分類データセットで実験され、QNNよりも少ない時間で、適切なトレーニング精度で計算を収束させる。
論文 参考訳(メタデータ) (2023-03-10T11:24:32Z) - Towards Neural Variational Monte Carlo That Scales Linearly with System
Size [67.09349921751341]
量子多体問題(Quantum many-body problem)は、例えば高温超伝導体のようなエキゾチックな量子現象をデミストする中心である。
量子状態を表すニューラルネットワーク(NN)と変分モンテカルロ(VMC)アルゴリズムの組み合わせは、そのような問題を解決する上で有望な方法であることが示されている。
ベクトル量子化技術を用いて,VMCアルゴリズムの局所エネルギー計算における冗長性を利用するNNアーキテクチャVector-Quantized Neural Quantum States (VQ-NQS)を提案する。
論文 参考訳(メタデータ) (2022-12-21T19:00:04Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Power and limitations of single-qubit native quantum neural networks [5.526775342940154]
量子ニューラルネットワーク(QNN)は、機械学習、化学、最適化の応用を確立するための主要な戦略として登場した。
量子ニューラルネットワークのデータ再アップロードの表現能力に関する理論的枠組みを定式化する。
論文 参考訳(メタデータ) (2022-05-16T17:58:27Z) - Optimizing Tensor Network Contraction Using Reinforcement Learning [86.05566365115729]
本稿では,グラフニューラルネットワーク(GNN)と組み合わせた強化学習(RL)手法を提案する。
この問題は、巨大な検索スペース、重い尾の報酬分布、そして困難なクレジット割り当てのために非常に難しい。
GNNを基本方針として利用するRLエージェントが,これらの課題にどのように対処できるかを示す。
論文 参考訳(メタデータ) (2022-04-18T21:45:13Z) - Branching Quantum Convolutional Neural Networks [0.0]
小型量子コンピュータは、大規模量子および非常に大規模な古典的データセット上での学習タスクにおいて、既に潜在的な増加を見せている。
本稿では、分岐量子畳み込みニューラルネットワークであるQCNN(bQCNN)を、かなり高い表現性で一般化する。
論文 参考訳(メタデータ) (2020-12-28T19:00:03Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Entanglement Classification via Neural Network Quantum States [58.720142291102135]
本稿では、学習ツールと量子絡み合いの理論を組み合わせて、純状態における多部量子ビット系の絡み合い分類を行う。
我々は、ニューラルネットワーク量子状態(NNS)として知られる制限されたボルツマンマシン(RBM)アーキテクチャにおいて、人工ニューラルネットワークを用いた量子システムのパラメータ化を用いる。
論文 参考訳(メタデータ) (2019-12-31T07:40:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。