論文の概要: Expressibility-Enhancing Strategies for Quantum Neural Networks
- arxiv url: http://arxiv.org/abs/2211.12670v2
- Date: Tue, 16 May 2023 04:05:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 19:25:59.440033
- Title: Expressibility-Enhancing Strategies for Quantum Neural Networks
- Title(参考訳): 量子ニューラルネットワークの表現可能性向上戦略
- Authors: Yalin Liao, Junpeng Zhan
- Abstract要約: 入力データを予測にマップするために、量子ニューラルネットワーク(QNN)をトレーニングすることができる。
多くの研究はQNNの表現力を理論的に分析することに重点を置いている。
本稿では,QNNに対する4つの表現可能性向上戦略を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum neural networks (QNNs), represented by parameterized quantum
circuits, can be trained in the paradigm of supervised learning to map input
data to predictions. Much work has focused on theoretically analyzing the
expressive power of QNNs. However, in almost all literature, QNNs' expressive
power is numerically validated using only simple univariate functions. We
surprisingly discover that state-of-the-art QNNs with strong expressive power
can have poor performance in approximating even just a simple sinusoidal
function. To fill the gap, we propose four expressibility-enhancing strategies
for QNNs: Sinusoidal-friendly embedding, redundant measurement,
post-measurement function, and random training data. We analyze the
effectiveness of these strategies via mathematical analysis and/or numerical
studies including learning complex sinusoidal-based functions. Our results from
comparative experiments validate that the four strategies can significantly
increase the QNNs' performance in approximating complex multivariable functions
and reduce the quantum circuit depth and qubits required.
- Abstract(参考訳): パラメータ化された量子回路で表現される量子ニューラルネットワーク(QNN)は、入力データを予測にマッピングする教師あり学習のパラダイムで訓練することができる。
多くの研究はQNNの表現力を理論的に分析することに重点を置いている。
しかし、ほとんどすべての文献において、QNNの表現力は単純な単変量関数のみを用いて数値的に検証される。
高い表現力を持つ最先端QNNは,単純な正弦波関数でさえも近似性能が劣ることがわかった。
このギャップを埋めるために, 正弦波対応埋め込み, 冗長測定, 後測定機能, ランダムトレーニングデータという4つのQNNの表現可能性向上戦略を提案する。
複雑な正弦波関数の学習を含む数学的解析および/または数値研究を通じて,これらの戦略の有効性を分析する。
比較実験の結果,複素多変数関数近似におけるqnnの性能を著しく向上させ,必要な量子回路深度と量子ビットを低減できることを確認した。
関連論文リスト
- From Graphs to Qubits: A Critical Review of Quantum Graph Neural Networks [56.51893966016221]
量子グラフニューラルネットワーク(QGNN)は、量子コンピューティングとグラフニューラルネットワーク(GNN)の新たな融合を表す。
本稿では,QGNNの現状を批判的にレビューし,様々なアーキテクチャを探求する。
我々は、高エネルギー物理学、分子化学、ファイナンス、地球科学など多種多様な分野にまたがる応用について論じ、量子的優位性の可能性を強調した。
論文 参考訳(メタデータ) (2024-08-12T22:53:14Z) - Exploiting the equivalence between quantum neural networks and perceptrons [2.598133279943607]
パラメタライズド量子回路に基づく量子機械学習モデルは、量子デバイスへの応用において最も有望な候補であると考えられている。
我々はQNNの表現率と帰納バイアスを$x$から$xotimes x$に作用する古典的パーセプトロンへの入力を含むQNNからの正確なマッピングを利用して検討する。
論文 参考訳(メタデータ) (2024-07-05T09:19:58Z) - Statistical Analysis of Quantum State Learning Process in Quantum Neural
Networks [4.852613028421959]
量子ニューラルネットワーク(QNN)は、短期的な量子優位を追求する上で有望なフレームワークである。
高忠実な初期状態から始まるQNNを用いて未知の量子状態を学ぶためのノーゴー定理を開発する。
論文 参考訳(メタデータ) (2023-09-26T14:54:50Z) - Predicting Expressibility of Parameterized Quantum Circuits using Graph
Neural Network [5.444441239596186]
量子回路(PQC)の表現性を予測するためのグラフニューラルネットワーク(GNN)に基づく新しい手法を提案する。
グラフに基づくPQC表現を活用することで、GNNベースのモデルは、回路パラメータと結果の表現性の間の複雑な関係をキャプチャする。
4千個のランダムPQCデータセットとIBM Qiskitのハードウェア効率の良いアンサッツセットの実験評価により、我々のアプローチの優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-13T14:08:01Z) - Problem-Dependent Power of Quantum Neural Networks on Multi-Class
Classification [83.20479832949069]
量子ニューラルネットワーク(QNN)は物理世界を理解する上で重要なツールとなっているが、その利点と限界は完全には理解されていない。
本稿では,多クラス分類タスクにおけるQCの問題依存力について検討する。
我々の研究はQNNの課題依存力に光を当て、その潜在的なメリットを評価するための実践的なツールを提供する。
論文 参考訳(メタデータ) (2022-12-29T10:46:40Z) - QuanGCN: Noise-Adaptive Training for Robust Quantum Graph Convolutional
Networks [124.7972093110732]
本稿では,ノード間の局所的なメッセージパッシングをクロスゲート量子演算のシーケンスで学習する量子グラフ畳み込みネットワーク(QuanGCN)を提案する。
現代の量子デバイスから固有のノイズを緩和するために、ノードの接続をスパーズするためにスパース制約を適用します。
我々のQuanGCNは、いくつかのベンチマークグラフデータセットの古典的なアルゴリズムよりも機能的に同等か、さらに優れている。
論文 参考訳(メタデータ) (2022-11-09T21:43:16Z) - Evaluating the performance of sigmoid quantum perceptrons in quantum
neural networks [0.0]
量子機械学習のための有望なアーキテクチャとして量子ニューラルネットワーク(QNN)が提案されている。
1つの候補は古典的パーセプトロンの非線形活性化関数をエミュレートするために設計された量子パーセプトロンである。
本稿では,SQPネットワークの性能と性能を,その有効次元と有効容量の計算によって評価する。
論文 参考訳(メタデータ) (2022-08-12T10:08:11Z) - Power and limitations of single-qubit native quantum neural networks [5.526775342940154]
量子ニューラルネットワーク(QNN)は、機械学習、化学、最適化の応用を確立するための主要な戦略として登場した。
量子ニューラルネットワークのデータ再アップロードの表現能力に関する理論的枠組みを定式化する。
論文 参考訳(メタデータ) (2022-05-16T17:58:27Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。