論文の概要: Training Classical Neural Networks by Quantum Machine Learning
- arxiv url: http://arxiv.org/abs/2402.16465v1
- Date: Mon, 26 Feb 2024 10:16:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 13:42:45.155489
- Title: Training Classical Neural Networks by Quantum Machine Learning
- Title(参考訳): 量子機械学習による古典的ニューラルネットワークの学習
- Authors: Chen-Yu Liu, En-Jui Kuo, Chu-Hsuan Abraham Lin, Sean Chen, Jason
Gemsun Young, Yeong-Jar Chang, Min-Hsiu Hsieh
- Abstract要約: 本研究では、量子系の指数的に大きなヒルベルト空間を利用する古典的ニューラルネットワーク(NN)のトレーニングスキームを提案する。
既存の量子機械学習(QML)法とは異なり、我々の手法を用いた量子コンピュータから得られた結果は、古典的なコンピュータで直接利用できる。
- 参考スコア(独自算出の注目度): 9.002305736350833
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, advanced deep neural networks have required a large number
of parameters for training. Therefore, finding a method to reduce the number of
parameters has become crucial for achieving efficient training. This work
proposes a training scheme for classical neural networks (NNs) that utilizes
the exponentially large Hilbert space of a quantum system. By mapping a
classical NN with $M$ parameters to a quantum neural network (QNN) with
$O(\text{polylog} (M))$ rotational gate angles, we can significantly reduce the
number of parameters. These gate angles can be updated to train the classical
NN. Unlike existing quantum machine learning (QML) methods, the results
obtained from quantum computers using our approach can be directly used on
classical computers. Numerical results on the MNIST and Iris datasets are
presented to demonstrate the effectiveness of our approach. Additionally, we
investigate the effects of deeper QNNs and the number of measurement shots for
the QNN, followed by the theoretical perspective of the proposed method. This
work opens a new branch of QML and offers a practical tool that can greatly
enhance the influence of QML, as the trained QML results can benefit classical
computing in our daily lives.
- Abstract(参考訳): 近年、高度なディープニューラルネットワークは、トレーニングに多数のパラメータを必要としている。
そのため,効率的な訓練を行う上で,パラメータ数を削減する手法が重要である。
本研究では、量子系の指数的に大きなヒルベルト空間を利用する古典的ニューラルネットワーク(NN)のトレーニングスキームを提案する。
古典的NNを$M$パラメータで、$O(\text{polylog} (M))$回転ゲート角で量子ニューラルネットワーク(QNN)にマッピングすることにより、パラメータの数を大幅に削減できる。
これらのゲート角は、古典的なNNを訓練するために更新することができる。
既存の量子機械学習(qml)手法とは異なり、量子コンピュータから得られた結果は古典的コンピュータで直接使用できる。
提案手法の有効性を示すため, MNIST と Iris データセットの数値計算結果を示した。
さらに,より深いqnnの効果と,qnnの測定ショット数について検討し,提案手法の理論的展望について検討した。
この作業は、QMLの新しいブランチを開き、トレーニングされたQML結果が、私たちの日常生活における古典的なコンピューティングの恩恵を受けることができるため、QMLの影響を大幅に強化する実用的なツールを提供する。
関連論文リスト
- Bridging Classical and Quantum Machine Learning: Knowledge Transfer From
Classical to Quantum Neural Networks Using Knowledge Distillation [0.0]
本稿では,知識蒸留を用いた古典的ニューラルネットワークから量子ニューラルネットワークへ知識を伝達する新しい手法を提案する。
我々は、LeNetやAlexNetのような古典的畳み込みニューラルネットワーク(CNN)アーキテクチャを教師ネットワークとして活用する。
量子モデルは、MNISTデータセットで0.80%、より複雑なFashion MNISTデータセットで5.40%の平均精度改善を達成する。
論文 参考訳(メタデータ) (2023-11-23T05:06:43Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Variational Quantum Neural Networks (VQNNS) in Image Classification [0.0]
本稿では,量子最適化アルゴリズムを用いて量子ニューラルネットワーク(QNN)のトレーニングを行う方法について検討する。
本稿では、変分量子ニューラルネットワーク(VQNN)と呼ばれる入力層として、変分パラメータ化回路を組み込んだQNN構造を作成する。
VQNNは、MNIST桁認識(複雑でない)とクラック画像分類データセットで実験され、QNNよりも少ない時間で、適切なトレーニング精度で計算を収束させる。
論文 参考訳(メタデータ) (2023-03-10T11:24:32Z) - Quantum Ridgelet Transform: Winning Lottery Ticket of Neural Networks
with Quantum Computation [8.947825738917869]
リッジレット変換は、ニューラルネットワークの理論研究における基本的な数学的ツールである。
我々は、線形実行時$exp(O(D))$の量子計算において、量子状態のリッジレット変換を実装する量子リッジレット変換(QRT)を開発した。
アプリケーションとして、QMLの基本的なサブルーチンとしてQRTを使用することで、大きな浅い広帯域ニューラルネットワークのスパーストレーニング可能なサブネットワークを効率的に見つけることができることを示す。
論文 参考訳(メタデータ) (2023-01-27T19:00:00Z) - Towards Neural Variational Monte Carlo That Scales Linearly with System
Size [67.09349921751341]
量子多体問題(Quantum many-body problem)は、例えば高温超伝導体のようなエキゾチックな量子現象をデミストする中心である。
量子状態を表すニューラルネットワーク(NN)と変分モンテカルロ(VMC)アルゴリズムの組み合わせは、そのような問題を解決する上で有望な方法であることが示されている。
ベクトル量子化技術を用いて,VMCアルゴリズムの局所エネルギー計算における冗長性を利用するNNアーキテクチャVector-Quantized Neural Quantum States (VQ-NQS)を提案する。
論文 参考訳(メタデータ) (2022-12-21T19:00:04Z) - Quantum-inspired Complex Convolutional Neural Networks [17.65730040410185]
我々は、より豊かな表現能力とより良い非線形性を持つ複素数値重みを利用することにより、量子刺激ニューロンを改善した。
我々は、高次元データを処理できる量子インスパイアされた畳み込みニューラルネットワーク(QICNN)のモデルを描く。
5つのQICNNの分類精度をMNISTとCIFAR-10データセットで検証した。
論文 参考訳(メタデータ) (2021-10-31T03:10:48Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Recurrent Quantum Neural Networks [7.6146285961466]
リカレントニューラルネットワークは、機械学習における多くのシーケンス対シーケンスモデルの基盤となっている。
非自明なタスクに対して実証可能な性能を持つ量子リカレントニューラルネットワーク(QRNN)を構築する。
我々はQRNNをMNIST分類で評価し、QRNNに各画像ピクセルを供給し、また、最新のデータ拡張を前処理のステップとして利用する。
論文 参考訳(メタデータ) (2020-06-25T17:59:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。