論文の概要: Training-efficient density quantum machine learning
- arxiv url: http://arxiv.org/abs/2405.20237v1
- Date: Thu, 30 May 2024 16:40:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 13:19:40.103134
- Title: Training-efficient density quantum machine learning
- Title(参考訳): トレーニング効率の高い密度量子機械学習
- Authors: Brian Coyle, El Amine Cherrat, Nishant Jain, Natansh Mathur, Snehal Raj, Skander Kazdaghli, Iordanis Kerenidis,
- Abstract要約: 量子機械学習は強力でフレキシブルで効率的にトレーニング可能なモデルを必要とする。
トレーニング可能なユニタリの集合にランダム化を組み込んだ学習モデルである密度量子ニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 2.918930150557355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum machine learning requires powerful, flexible and efficiently trainable models to be successful in solving challenging problems. In this work, we present density quantum neural networks, a learning model incorporating randomisation over a set of trainable unitaries. These models generalise quantum neural networks using parameterised quantum circuits, and allow a trade-off between expressibility and efficient trainability, particularly on quantum hardware. We demonstrate the flexibility of the formalism by applying it to two recently proposed model families. The first are commuting-block quantum neural networks (QNNs) which are efficiently trainable but may be limited in expressibility. The second are orthogonal (Hamming-weight preserving) quantum neural networks which provide well-defined and interpretable transformations on data but are challenging to train at scale on quantum devices. Density commuting QNNs improve capacity with minimal gradient complexity overhead, and density orthogonal neural networks admit a quadratic-to-constant gradient query advantage with minimal to no performance loss. We conduct numerical experiments on synthetic translationally invariant data and MNIST image data with hyperparameter optimisation to support our findings. Finally, we discuss the connection to post-variational quantum neural networks, measurement-based quantum machine learning and the dropout mechanism.
- Abstract(参考訳): 量子機械学習は、挑戦的な問題を解決するのに成功するために、強力で柔軟で効率的にトレーニング可能なモデルを必要とする。
本研究では、トレーニング可能なユニタリの集合にランダム化を組み込んだ学習モデルである密度量子ニューラルネットワークを提案する。
これらのモデルは、パラメータ化された量子回路を用いて量子ニューラルネットワークを一般化し、特に量子ハードウェア上で、表現可能性と効率的な訓練性の間のトレードオフを可能にする。
最近提案された2つのモデルファミリに適用することで、形式主義の柔軟性を実証する。
1つは通勤ブロック量子ニューラルネットワーク(QNN)で、効率よく訓練できるが、表現性には制限がある。
2つ目は直交(ハミング重保存)量子ニューラルネットワークで、データに対して明確に定義された解釈可能な変換を提供するが、量子デバイス上で大規模にトレーニングすることは困難である。
密度通勤QNNは、最小の勾配複雑性オーバーヘッドでキャパシティを向上し、密度直交ニューラルネットワークは、2次からコンスタントな勾配クエリの利点を認め、性能損失は最小か無である。
我々は,ハイパーパラメータ最適化による合成翻訳不変データとMNIST画像データに関する数値実験を行った。
最後に、変分後の量子ニューラルネットワーク、計測に基づく量子機械学習、およびドロップアウト機構との関係について論じる。
関連論文リスト
- A Quantum-Classical Collaborative Training Architecture Based on Quantum
State Fidelity [50.387179833629254]
我々は,コ・テンク (co-TenQu) と呼ばれる古典量子アーキテクチャを導入する。
Co-TenQuは古典的なディープニューラルネットワークを41.72%まで向上させる。
他の量子ベースの手法よりも1.9倍も優れており、70.59%少ない量子ビットを使用しながら、同様の精度を達成している。
論文 参考訳(メタデータ) (2024-02-23T14:09:41Z) - Quantum Neural Network for Quantum Neural Computing [0.0]
本稿では,量子ニューラルネットワークのための新しい量子ニューラルネットワークモデルを提案する。
我々のモデルは、状態空間のサイズがニューロンの数とともに指数関数的に大きくなるという問題を回避している。
我々は手書き文字認識や他の非線形分類タスクのモデルをベンチマークする。
論文 参考訳(メタデータ) (2023-05-15T11:16:47Z) - Quantum HyperNetworks: Training Binary Neural Networks in Quantum
Superposition [16.1356415877484]
量子コンピュータ上でバイナリニューラルネットワークをトレーニングするメカニズムとして量子ハイパーネットを導入する。
提案手法は, 最適パラメータ, ハイパーパラメータ, アーキテクチャ選択を, 分類問題に対する高い確率で効果的に発見できることを示す。
私たちの統合されたアプローチは、機械学習の分野における他のアプリケーションにとって大きなスコープを提供します。
論文 参考訳(メタデータ) (2023-01-19T20:06:48Z) - QuanGCN: Noise-Adaptive Training for Robust Quantum Graph Convolutional
Networks [124.7972093110732]
本稿では,ノード間の局所的なメッセージパッシングをクロスゲート量子演算のシーケンスで学習する量子グラフ畳み込みネットワーク(QuanGCN)を提案する。
現代の量子デバイスから固有のノイズを緩和するために、ノードの接続をスパーズするためにスパース制約を適用します。
我々のQuanGCNは、いくつかのベンチマークグラフデータセットの古典的なアルゴリズムよりも機能的に同等か、さらに優れている。
論文 参考訳(メタデータ) (2022-11-09T21:43:16Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Quantum Annealing Formulation for Binary Neural Networks [40.99969857118534]
本研究では、リソース制約のあるデバイスを意図した軽量で強力なモデルであるバイナリニューラルネットワークについて検討する。
トレーニング問題に対する2次非制約バイナリ最適化の定式化を考案する。
問題は難解であり、すなわち、二分重みを推定するコストはネットワークサイズと指数関数的にスケールするが、どのようにして問題を量子アニール器に直接最適化できるかを示す。
論文 参考訳(メタデータ) (2021-07-05T03:20:54Z) - Quantum-tailored machine-learning characterization of a superconducting
qubit [50.591267188664666]
我々は,量子デバイスのダイナミクスを特徴付ける手法を開発し,デバイスパラメータを学習する。
このアプローチは、数値的に生成された実験データに基づいてトレーニングされた物理に依存しないリカレントニューラルネットワークより優れている。
このデモンストレーションは、ドメイン知識を活用することで、この特徴付けタスクの正確性と効率が向上することを示す。
論文 参考訳(メタデータ) (2021-06-24T15:58:57Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z) - Quantum neural networks with deep residual learning [29.929891641757273]
本稿では,深層残留学習(resqnn)を用いた新しい量子ニューラルネットワークを提案する。
ResQNNは未知のユニタリを学び、驚くべきパフォーマンスを得ることができます。
論文 参考訳(メタデータ) (2020-12-14T18:11:07Z) - The power of quantum neural networks [3.327474729829121]
しかし、短期的には、量子機械学習の利点はあまり明確ではない。
我々は、情報幾何学のツールを使用して、量子モデルと古典モデルの表現可能性の概念を定義します。
量子ニューラルネットワークは、同等の古典的ニューラルネットワークよりもはるかに優れた次元を達成可能であることを示す。
論文 参考訳(メタデータ) (2020-10-30T18:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。