論文の概要: A universal duplication-free quantum neural network
- arxiv url: http://arxiv.org/abs/2106.13211v2
- Date: Wed, 20 Oct 2021 09:25:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 16:11:31.607599
- Title: A universal duplication-free quantum neural network
- Title(参考訳): 普遍重複のない量子ニューラルネットワーク
- Authors: Xiaokai Hou, Guanyu Zhou, Qingyu Li, Shan Jin, Xiaoting Wang
- Abstract要約: 複数の状態複製を必要としない新しいQNNモデルを提案する。
我々のモデルでは、量子ビットが大幅に少なくなり、精度と相対誤差の点で他の2つよりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 0.8399688944263843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Universality of neural networks describes the ability to approximate
arbitrary function, and is a key ingredient to keep the method effective. The
established models for universal quantum neural networks(QNN), however, require
the preparation of multiple copies of the same quantum state to generate the
nonlinearity, with the copy number increasing significantly for highly
oscillating functions, resulting in a huge demand for a large-scale quantum
processor. To address this problem, we propose a new QNN model that harbors
universality without the need of multiple state-duplications, and is more
likely to get implemented on near-term devices. To demonstrate the
effectiveness, we compare our proposal with two popular QNN models in solving
typical supervised learning problems. We find that our model requires
significantly fewer qubits and it outperforms the other two in terms of
accuracy and relative error.
- Abstract(参考訳): ニューラルネットワークの普遍性は任意の関数を近似する能力を記述しており、この手法を効果的に維持するための重要な要素である。
しかし、普遍量子ニューラルネットワーク(英語版)(QNN)の確立されたモデルでは、非線形性を生成するために同じ量子状態の複数のコピーを作成する必要があり、コピー数は高振動関数に対して著しく増加し、大規模な量子プロセッサの需要が大きくなった。
この問題に対処するために、複数の状態重複を必要とせずに普遍性を保ち、短期的なデバイスに実装される可能性が高い新しいQNNモデルを提案する。
提案手法を2つのQNNモデルと比較し,典型的な教師付き学習問題の解法を提案する。
私たちのモデルでは、キュービットが大幅に少なくなり、他の2つよりも正確さと相対誤差が優れていることが分かりました。
関連論文リスト
- Coherent Feed Forward Quantum Neural Network [2.1178416840822027]
量子ニューラルネットワーク(QNN)に焦点をあてた量子機械学習は、いまだに膨大な研究分野である。
適応可能な中間層とノードの観点から,従来のFFNNの汎用性とシームレスに整合するボナフェイドQNNモデルを提案する。
本研究では,診断乳がん(Wisconsin)やクレジットカード不正検出データセットなど,さまざまなベンチマークデータセットを用いて提案モデルを検証した。
論文 参考訳(メタデータ) (2024-02-01T15:13:26Z) - Quantum Neural Network for Quantum Neural Computing [0.0]
本稿では,量子ニューラルネットワークのための新しい量子ニューラルネットワークモデルを提案する。
我々のモデルは、状態空間のサイズがニューロンの数とともに指数関数的に大きくなるという問題を回避している。
我々は手書き文字認識や他の非線形分類タスクのモデルをベンチマークする。
論文 参考訳(メタデータ) (2023-05-15T11:16:47Z) - Towards Neural Variational Monte Carlo That Scales Linearly with System
Size [67.09349921751341]
量子多体問題(Quantum many-body problem)は、例えば高温超伝導体のようなエキゾチックな量子現象をデミストする中心である。
量子状態を表すニューラルネットワーク(NN)と変分モンテカルロ(VMC)アルゴリズムの組み合わせは、そのような問題を解決する上で有望な方法であることが示されている。
ベクトル量子化技術を用いて,VMCアルゴリズムの局所エネルギー計算における冗長性を利用するNNアーキテクチャVector-Quantized Neural Quantum States (VQ-NQS)を提案する。
論文 参考訳(メタデータ) (2022-12-21T19:00:04Z) - Vertical Layering of Quantized Neural Networks for Heterogeneous
Inference [57.42762335081385]
量子化モデル全体を1つのモデルにカプセル化するための,ニューラルネットワーク重みの新しい垂直層表現について検討する。
理論的には、1つのモデルのトレーニングとメンテナンスのみを必要としながら、オンデマンドサービスの正確なネットワークを達成できます。
論文 参考訳(メタデータ) (2022-12-10T15:57:38Z) - A duplication-free quantum neural network for universal approximation [0.8399688944263843]
量子ニューラルネットワークの普遍性は、任意の関数を近似する能力を指す。
本稿では,重複のない量子ニューラルネットワークの普遍性を厳密に証明できる簡単な設計法を提案する。
論文 参考訳(メタデータ) (2022-11-21T07:43:32Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Scaling of neural-network quantum states for time evolution [0.0]
非可積分量子イジングチェーンのグローバルダイナミクスをシミュレートするために、異なる浅層および深層神経自己回帰量子状態の変動パワーをベンチマークする。
与えられた精度で量子状態を表現するのに必要なパラメータの数が指数関数的に増加することがわかった。
論文 参考訳(メタデータ) (2021-04-21T18:00:07Z) - Variational Monte Carlo calculations of $\mathbf{A\leq 4}$ nuclei with
an artificial neural-network correlator ansatz [62.997667081978825]
光核の基底状態波動関数をモデル化するためのニューラルネットワーク量子状態アンサッツを導入する。
我々は、Aleq 4$核の結合エネルギーと点核密度を、上位のピオンレス実効場理論から生じるものとして計算する。
論文 参考訳(メタデータ) (2020-07-28T14:52:28Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Recurrent Quantum Neural Networks [7.6146285961466]
リカレントニューラルネットワークは、機械学習における多くのシーケンス対シーケンスモデルの基盤となっている。
非自明なタスクに対して実証可能な性能を持つ量子リカレントニューラルネットワーク(QRNN)を構築する。
我々はQRNNをMNIST分類で評価し、QRNNに各画像ピクセルを供給し、また、最新のデータ拡張を前処理のステップとして利用する。
論文 参考訳(メタデータ) (2020-06-25T17:59:44Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。