論文の概要: Quantum neural networks with deep residual learning
- arxiv url: http://arxiv.org/abs/2012.07772v2
- Date: Tue, 29 Dec 2020 15:00:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 14:24:03.351013
- Title: Quantum neural networks with deep residual learning
- Title(参考訳): 深層学習を用いた量子ニューラルネットワーク
- Authors: Yanying Liang, Wei Peng, Zhu-Jun Zheng, Olli Silv\'en, Guoying Zhao
- Abstract要約: 本稿では,深層残留学習(resqnn)を用いた新しい量子ニューラルネットワークを提案する。
ResQNNは未知のユニタリを学び、驚くべきパフォーマンスを得ることができます。
- 参考スコア(独自算出の注目度): 29.929891641757273
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inspired by the success of neural networks in the classical machine learning
tasks, there has been tremendous effort to develop quantum neural networks
(QNNs), especially for quantum data or tasks that are inherently quantum in
nature. Currently, with the imminent advent of quantum computing processors to
evade the computational and thermodynamic limitation of classical
computations,} designing an efficient quantum neural network becomes a valuable
task in quantum machine learning. In this paper, a novel quantum neural network
with deep residual learning (ResQNN) is proposed. {Specifically, a multiple
layer quantum perceptron with residual connection is provided. Our ResQNN is
able to learn an unknown unitary and get remarkable performance. Besides, the
model can be trained with an end-to-end fashion, as analogue of the
backpropagation in the classical neural networks. To explore the effectiveness
of our ResQNN , we perform extensive experiments on the quantum data under the
setting of both clean and noisy training data. The experimental results show
the robustness and superiority of our ResQNN, when compared to current
remarkable work, which is from \textit{Nature communications, 2020}. Moreover,
when training with higher proportion of noisy data, the superiority of our
ResQNN model can be even significant, which implies the generalization ability
and the remarkable tolerance for noisy data of the proposed method.
- Abstract(参考訳): 古典的機械学習タスクにおけるニューラルネットワークの成功に触発されて、量子ニューラルネットワーク(qnn)の開発には、特に量子データや本質的に量子性を持つタスクに対して多大な努力が払われてきた。
現在、古典的計算の計算と熱力学的制限を回避するために量子コンピューティングプロセッサが間近に出現し、効率的な量子ニューラルネットワークを設計することは、量子機械学習において貴重なタスクとなる。
本稿では,深層残留学習(resqnn)を用いた新しい量子ニューラルネットワークを提案する。
具体的には、残差接続を持つ多重層量子パーセプトロンを提供する。
我々のResQNNは未知のユニタリを学び、素晴らしいパフォーマンスを得ることができます。
さらに、モデルは古典的ニューラルネットワークのバックプロパゲーションの類似として、エンドツーエンドでトレーニングすることができる。
ResQNNの有効性を探るため,クリーンかつノイズの多いトレーニングデータの設定下で,量子データに関する広範な実験を行った。
実験結果から,現在の「textit{Nature communication, 2020}」の成果と比較して,ResQNNの堅牢性と優位性を示した。
さらに、ノイズの多いデータの割合が高い場合、ResQNNモデルの優位性がさらに大きくなり、提案手法のノイズの多いデータに対する一般化能力と顕著な耐性が示唆される。
関連論文リスト
- CTRQNets & LQNets: Continuous Time Recurrent and Liquid Quantum Neural Networks [76.53016529061821]
Liquid Quantum Neural Network (LQNet) とContinuous Time Recurrent Quantum Neural Network (CTRQNet) を開発した。
LQNetとCTRQNetは、バイナリ分類によってCIFAR 10で40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T00:56:03Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Quantum Neural Network for Quantum Neural Computing [0.0]
本稿では,量子ニューラルネットワークのための新しい量子ニューラルネットワークモデルを提案する。
我々のモデルは、状態空間のサイズがニューロンの数とともに指数関数的に大きくなるという問題を回避している。
我々は手書き文字認識や他の非線形分類タスクのモデルをベンチマークする。
論文 参考訳(メタデータ) (2023-05-15T11:16:47Z) - Learning Quantum Processes with Memory -- Quantum Recurrent Neural
Networks [0.0]
本稿では,散逸性量子ニューラルネットワークに基づく完全量子リカレントニューラルネットワークを提案する。
これらのアルゴリズムが複雑な量子過程をメモリで学習する可能性を実証する。
数値シミュレーションにより、我々の量子リカレントニューラルネットワークは、小さなトレーニングセットから一般化する顕著な能力を示すことが示された。
論文 参考訳(メタデータ) (2023-01-19T16:58:39Z) - QuanGCN: Noise-Adaptive Training for Robust Quantum Graph Convolutional
Networks [124.7972093110732]
本稿では,ノード間の局所的なメッセージパッシングをクロスゲート量子演算のシーケンスで学習する量子グラフ畳み込みネットワーク(QuanGCN)を提案する。
現代の量子デバイスから固有のノイズを緩和するために、ノードの接続をスパーズするためにスパース制約を適用します。
我々のQuanGCNは、いくつかのベンチマークグラフデータセットの古典的なアルゴリズムよりも機能的に同等か、さらに優れている。
論文 参考訳(メタデータ) (2022-11-09T21:43:16Z) - Quantum-inspired Complex Convolutional Neural Networks [17.65730040410185]
我々は、より豊かな表現能力とより良い非線形性を持つ複素数値重みを利用することにより、量子刺激ニューロンを改善した。
我々は、高次元データを処理できる量子インスパイアされた畳み込みニューラルネットワーク(QICNN)のモデルを描く。
5つのQICNNの分類精度をMNISTとCIFAR-10データセットで検証した。
論文 参考訳(メタデータ) (2021-10-31T03:10:48Z) - QDCNN: Quantum Dilated Convolutional Neural Network [1.52292571922932]
量子拡張畳み込みニューラルネットワーク(QDCNN)と呼ばれる新しいハイブリッド量子古典型アルゴリズムを提案する。
提案手法は,現代のディープラーニングアルゴリズムに広く応用されている拡張畳み込みの概念を,ハイブリッドニューラルネットワークの文脈にまで拡張する。
提案したQDCNNは,量子畳み込み過程において,計算コストを低減しつつ,より大きなコンテキストを捉えることができる。
論文 参考訳(メタデータ) (2021-10-29T10:24:34Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - A Quantum Convolutional Neural Network for Image Classification [7.745213180689952]
量子畳み込みニューラルネットワーク(QCNN)という新しいニューラルネットワークモデルを提案する。
QCNNは実装可能な量子回路に基づいており、古典的畳み込みニューラルネットワークと同様の構造を持つ。
MNISTデータセットの数値シミュレーションにより,本モデルの有効性が示された。
論文 参考訳(メタデータ) (2021-07-08T06:47:34Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Quantum Deformed Neural Networks [83.71196337378022]
我々は,量子コンピュータ上で効率的に動作するように設計された新しい量子ニューラルネットワーク層を開発した。
入力状態の絡み合いに制限された場合、古典的なコンピュータでシミュレートすることができる。
論文 参考訳(メタデータ) (2020-10-21T09:46:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。