論文の概要: Scrambling Ability of Quantum Neural Networks Architectures
- arxiv url: http://arxiv.org/abs/2011.07698v1
- Date: Mon, 16 Nov 2020 02:50:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-23 23:55:16.079888
- Title: Scrambling Ability of Quantum Neural Networks Architectures
- Title(参考訳): 量子ニューラルネットワークアーキテクチャのスクランブル能力
- Authors: Yadong Wu, Pengfei Zhang, and Hui Zhai
- Abstract要約: 本稿では,高い学習効率で量子ニューラルネットワークを構築するための一般的な原理を提案する。
我々は,演算子サイズの増大による量子情報の揺らぎを特徴付ける。
この量は、このアーキテクチャの学習効率と正の相関関係があることを論じる。
- 参考スコア(独自算出の注目度): 4.235187141547713
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this letter we propose a general principle for how to build up a quantum
neural network with high learning efficiency. Our stratagem is based on the
equivalence between extracting information from input state to readout qubit
and scrambling information from the readout qubit to input qubits. We
characterize the quantum information scrambling by operator size growth, and by
Haar random averaging over operator sizes, we propose an averaged operator size
to describe the information scrambling ability for a given quantum neural
network architectures, and argue this quantity is positively correlated with
the learning efficiency of this architecture. As examples, we compute the
averaged operator size for several different architectures, and we also
consider two typical learning tasks, which are a regression task of a quantum
problem and a classification task on classical images, respectively. In both
cases, we find that, for the architecture with a larger averaged operator size,
the loss function decreases faster or the prediction accuracy in the testing
dataset increases faster as the training epoch increases, which means higher
learning efficiency. Our results can be generalized to more complicated quantum
versions of machine learning algorithms.
- Abstract(参考訳): 本稿では,高い学習効率で量子ニューラルネットワークを構築するための一般的な原理を提案する。
我々の戦略は、入力状態から読み出しキュービットへの情報抽出と読み出しキュービットから入力キュービットへの情報のスクランブルの等価性に基づいている。
本稿では,演算子サイズの増大による量子情報のスクランブルを特徴付け,演算子サイズの平均化により,与えられた量子ニューラルネットワークアーキテクチャにおける情報スクランブル能力を記述する平均演算子サイズを提案し,この量とこのアーキテクチャの学習効率との正の相関を論じる。
例として、いくつかの異なるアーキテクチャにおける平均演算子サイズを計算し、量子問題の回帰タスクである2つの典型的な学習タスクと古典画像の分類タスクについても検討する。
どちらの場合も、平均演算子サイズが大きいアーキテクチャの場合、損失関数はより速く減少し、トレーニングエポックの増加とともにテストデータセットの予測精度が向上し、学習効率が向上する。
この結果は、より複雑な機械学習アルゴリズムの量子バージョンに一般化することができる。
関連論文リスト
- Dissipation-driven quantum generative adversarial networks [11.833077116494929]
本稿では,従来のデータ生成に適した,分散駆動型量子生成逆数ネットワーク(DQGAN)アーキテクチャを提案する。
古典データは、強い調整された散逸過程を通じて入力層の入力量子ビットに符号化される。
出力量子ビットの定常状態の可観測値を測定することにより、生成されたデータと分類結果の両方を抽出する。
論文 参考訳(メタデータ) (2024-08-28T07:41:58Z) - Incrementally-Computable Neural Networks: Efficient Inference for
Dynamic Inputs [75.40636935415601]
ディープラーニングは、センサーデータやユーザ入力などの動的入力を効率的に処理するという課題に直面していることが多い。
インクリメンタルな計算アプローチを採用し、入力の変化に応じて計算を再利用する。
本稿では,この手法をトランスフォーマーアーキテクチャに適用し,修正入力の分数に比例した複雑性を持つ効率的なインクリメンタル推論アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-27T16:30:27Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - NAR-Former: Neural Architecture Representation Learning towards Holistic
Attributes Prediction [37.357949900603295]
本稿では,属性の全体的推定に使用できるニューラルネットワーク表現モデルを提案する。
実験の結果,提案するフレームワークは,セルアーキテクチャとディープニューラルネットワーク全体の遅延特性と精度特性を予測できることがわかった。
論文 参考訳(メタデータ) (2022-11-15T10:15:21Z) - Efficient algorithms for quantum information bottleneck [64.67104066707309]
本稿では,情報ボトルネックの量子一般化のための新しい一般アルゴリズムを提案する。
本アルゴリズムは, 先行結果と比較して, 収束の速度と定性に優れる。
特に、量子システムは、量子情報のボトルネックに関して、同じ大きさの古典的なシステムよりも厳格に優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2022-08-22T14:20:05Z) - Deep Nonparametric Estimation of Operators between Infinite Dimensional
Spaces [41.55700086945413]
本稿では、ディープニューラルネットワークを用いたリプシッツ作用素の非パラメトリック推定について検討する。
対象作用素が低次元構造を示すという仮定の下では、トレーニングサンプルサイズが大きくなるにつれて誤差は減衰する。
この結果から,演算子推定における低次元データ構造の利用による高速化が期待できる。
論文 参考訳(メタデータ) (2022-01-01T16:33:44Z) - Variational learning for quantum artificial neural networks [0.0]
まず、量子プロセッサ上での人工ニューロンとフィードフォワードニューラルネットワークの実装について、最近の一連の研究を概説する。
次に、変分アンサンプリングプロトコルに基づく効率的な個別量子ノードのオリジナル実現を提案する。
メモリ効率の高いフィードフォワードアーキテクチャとの完全な互換性を維持しながら、単一ニューロンの活性化確率を決定するのに必要な量子回路深さを効果的に削減する。
論文 参考訳(メタデータ) (2021-03-03T16:10:15Z) - Ps and Qs: Quantization-aware pruning for efficient low latency neural
network inference [56.24109486973292]
超低遅延アプリケーションのためのニューラルネットワークのトレーニング中の分級と量子化の相互作用を研究します。
量子化アウェアプルーニングは,タスクのプルーニングや量子化のみよりも計算効率のよいモデルであることが判明した。
論文 参考訳(メタデータ) (2021-02-22T19:00:05Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - Entanglement-based quantum deep learning [1.1608078259903485]
我々は,マルチキュービットの絡み合い状態に基づく量子深層学習方式を提案している。
トレーニングの過程では,未知単位ベクトルと未知単位ベクトルとの距離の効率的な計算が実現されている。
古典的アルゴリズムに対する指数的な高速化が実証されている。
論文 参考訳(メタデータ) (2020-02-27T09:14:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。