論文の概要: Learning a quantum computer's capability using convolutional neural
networks
- arxiv url: http://arxiv.org/abs/2304.10650v1
- Date: Thu, 20 Apr 2023 21:25:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 16:36:36.759428
- Title: Learning a quantum computer's capability using convolutional neural
networks
- Title(参考訳): 畳み込みニューラルネットワークを用いた量子コンピュータ能力の学習
- Authors: Daniel Hothem, Kevin Young, Tommie Catanach, and Timothy Proctor
- Abstract要約: 本稿では,ニューラルネットワークを用いてプロセッサの能力関数の近似を学習する。
畳み込みニューラルネットワークは、プロセッサがゲート依存、時間依存、コンテキスト依存のエラーを経験したときに、プロセッサの能力を正確にモデル化できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The computational power of contemporary quantum processors is limited by
hardware errors that cause computations to fail. In principle, each quantum
processor's computational capabilities can be described with a capability
function that quantifies how well a processor can run each possible quantum
circuit (i.e., program), as a map from circuits to the processor's success
rates on those circuits. However, capability functions are typically unknown
and challenging to model, as the particular errors afflicting a specific
quantum processor are a priori unknown and difficult to completely
characterize. In this work, we investigate using artificial neural networks to
learn an approximation to a processor's capability function. We explore how to
define the capability function, and we explain how data for training neural
networks can be efficiently obtained for a capability function defined using
process fidelity. We then investigate using convolutional neural networks to
model a quantum computer's capability. Using simulations, we show that
convolutional neural networks can accurately model a processor's capability
when that processor experiences gate-dependent, time-dependent, and
context-dependent stochastic errors. We then discuss some challenges to
creating useful neural network capability models for experimental processors,
such as generalizing beyond training distributions and modelling the effects of
coherent errors. Lastly, we apply our neural networks to model the capabilities
of cloud-access quantum computing systems, obtaining moderate prediction
accuracy (average absolute error around 2-5%).
- Abstract(参考訳): 現代の量子プロセッサの計算能力は、計算が失敗するハードウェアエラーによって制限される。
原則として、各量子プロセッサの計算能力は、プロセッサが可能な量子回路(例えば、プログラム)をどれだけうまく実行できるかを、回路からプロセッサの成功率へのマップとして定量化する機能関数で記述することができる。
しかしながら、機能関数は一般に未知であり、特定の量子プロセッサにまつわる特定のエラーは未知であり、完全に特徴づけるのが難しいため、モデル化が困難である。
本研究では,ニューラルネットワークを用いてプロセッサの能力関数の近似を学習する。
本稿では、能力関数の定義方法を検討し、プロセス忠実性を用いて定義された能力関数に対して、ニューラルネットワークを訓練するためのデータを効率的に取得する方法を説明する。
次に,畳み込みニューラルネットワークを用いて量子コンピュータの能力をモデル化する。
シミュレーションを用いて、畳み込みニューラルネットワークは、ゲート依存、時間依存、コンテキスト依存の確率誤差を経験するプロセッサの能力を正確にモデル化できることを示す。
次に,実験プロセッサに有用なニューラルネットワーク機能モデルを構築する上での課題について論じる。
最後に、ニューラルネットワークを用いてクラウドアクセス量子コンピューティングシステムの能力をモデル化し、適度な予測精度(平均絶対誤差は約2-5%)を得る。
関連論文リスト
- CTRQNets & LQNets: Continuous Time Recurrent and Liquid Quantum Neural Networks [76.53016529061821]
Liquid Quantum Neural Network (LQNet) とContinuous Time Recurrent Quantum Neural Network (CTRQNet) を開発した。
LQNetとCTRQNetは、バイナリ分類によってCIFAR 10で40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T00:56:03Z) - What is my quantum computer good for? Quantum capability learning with physics-aware neural networks [0.0]
本稿では,学習能力モデルのための量子物理学的ニューラルネットワークアーキテクチャを提案する。
我々のアーキテクチャは、量子プログラムにおけるエラーの物理に対する効率的な近似とグラフニューラルネットワークの側面を組み合わせる。
このアプローチは、実験データとシミュレーションデータの両方における平均絶対誤差を最大$sim50%$還元する。
論文 参考訳(メタデータ) (2024-06-09T04:11:41Z) - Quantum Machine Learning: from physics to software engineering [58.720142291102135]
古典的な機械学習アプローチが量子コンピュータの設備改善にどのように役立つかを示す。
量子アルゴリズムと量子コンピュータは、古典的な機械学習タスクを解くのにどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2023-01-04T23:37:45Z) - Supervised learning of random quantum circuits via scalable neural
networks [0.0]
深部畳み込みニューラルネットワーク(CNN)は、単一キュービットと2キュービットの期待値を予測するために訓練されている。
CNNは、回路深度、ネットワーク深度、トレーニングセットサイズによって、量子デバイスよりも優れていることが多い。
論文 参考訳(メタデータ) (2022-06-21T13:05:52Z) - Quantum neural networks [0.0]
この論文は、過去数十年で最もエキサイティングな研究分野である量子コンピューティングと機械学習を組み合わせたものだ。
本稿では、汎用量子計算が可能で、トレーニング中にメモリ要求の少ない散逸型量子ニューラルネットワーク(DQNN)を紹介する。
論文 参考訳(メタデータ) (2022-05-17T07:47:00Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - QFCNN: Quantum Fourier Convolutional Neural Network [4.344289435743451]
量子フーリエ畳み込みネットワーク(Quantum Fourier Convolutional Network, QFCN)というハイブリッド量子古典回路を提案する。
提案モデルは,古典的CNNと比較して指数的な高速化を実現し,既存の量子CNNの最良の結果よりも向上する。
交通予測や画像分類など,さまざまなディープラーニングタスクに適用することで,このアーキテクチャの可能性を示す。
論文 参考訳(メタデータ) (2021-06-19T04:37:39Z) - The Hintons in your Neural Network: a Quantum Field Theory View of Deep
Learning [84.33745072274942]
線形および非線形の層をユニタリ量子ゲートとして表現する方法を示し、量子モデルの基本的な励起を粒子として解釈する。
ニューラルネットワークの研究のための新しい視点と技術を開くことに加えて、量子定式化は光量子コンピューティングに適している。
論文 参考訳(メタデータ) (2021-03-08T17:24:29Z) - Quantum Deformed Neural Networks [83.71196337378022]
我々は,量子コンピュータ上で効率的に動作するように設計された新しい量子ニューラルネットワーク層を開発した。
入力状態の絡み合いに制限された場合、古典的なコンピュータでシミュレートすることができる。
論文 参考訳(メタデータ) (2020-10-21T09:46:12Z) - A Tutorial on Quantum Convolutional Neural Networks (QCNN) [11.79760591464748]
畳み込みニューラルネットワーク(CNN)はコンピュータビジョンにおいて一般的なモデルである。
CNNは、与えられたデータやモデルの次元が大きすぎる場合、効率的に学習するのは難しい。
量子畳み込みニューラルネットワーク(Quantum Convolutional Neural Network, QCNN)は、量子コンピューティング環境を用いてCNNで解決する問題に対する新しい解決策を提供する。
論文 参考訳(メタデータ) (2020-09-20T12:29:05Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。