論文の概要: Quantum Ridgelet Transform: Winning Lottery Ticket of Neural Networks
with Quantum Computation
- arxiv url: http://arxiv.org/abs/2301.11936v2
- Date: Mon, 11 Sep 2023 13:00:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 22:32:29.641973
- Title: Quantum Ridgelet Transform: Winning Lottery Ticket of Neural Networks
with Quantum Computation
- Title(参考訳): quantum ridgelet transform: 量子計算によるニューラルネットワークの抽選チケット
- Authors: Hayata Yamasaki, Sathyawageeswar Subramanian, Satoshi Hayakawa, Sho
Sonoda
- Abstract要約: リッジレット変換は、ニューラルネットワークの理論研究における基本的な数学的ツールである。
我々は、線形実行時$exp(O(D))$の量子計算において、量子状態のリッジレット変換を実装する量子リッジレット変換(QRT)を開発した。
アプリケーションとして、QMLの基本的なサブルーチンとしてQRTを使用することで、大きな浅い広帯域ニューラルネットワークのスパーストレーニング可能なサブネットワークを効率的に見つけることができることを示す。
- 参考スコア(独自算出の注目度): 8.947825738917869
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A significant challenge in the field of quantum machine learning (QML) is to
establish applications of quantum computation to accelerate common tasks in
machine learning such as those for neural networks. Ridgelet transform has been
a fundamental mathematical tool in the theoretical studies of neural networks,
but the practical applicability of ridgelet transform to conducting learning
tasks was limited since its numerical implementation by conventional classical
computation requires an exponential runtime $\exp(O(D))$ as data dimension $D$
increases. To address this problem, we develop a quantum ridgelet transform
(QRT), which implements the ridgelet transform of a quantum state within a
linear runtime $O(D)$ of quantum computation. As an application, we also show
that one can use QRT as a fundamental subroutine for QML to efficiently find a
sparse trainable subnetwork of large shallow wide neural networks without
conducting large-scale optimization of the original network. This application
discovers an efficient way in this regime to demonstrate the lottery ticket
hypothesis on finding such a sparse trainable neural network. These results
open an avenue of QML for accelerating learning tasks with commonly used
classical neural networks.
- Abstract(参考訳): 量子機械学習(qml)の分野で重要な課題は、ニューラルネットワークのような機械学習の共通タスクを加速するために量子計算の応用を確立することである。
リッジレット変換はニューラルネットワークの理論研究における基本的な数学的ツールであったが、従来の古典計算による数値的実装はデータ次元$d$が増加するにつれて指数関数型ランタイム$\exp(o(d))$を必要とするため、リッジレット変換の学習タスクへの適用性は限られていた。
この問題に対処するために、線形実行時$O(D)$の量子計算において、量子状態のリッジレット変換を実装する量子リッジレット変換(QRT)を開発した。
アプリケーションとして、QMLの基本的なサブルーチンとしてQRTを使用することで、元のネットワークを大規模に最適化することなく、大きな浅層ニューラルネットワークのスパーストレーニング可能なサブネットワークを効率的に見つけることができることを示す。
このアプリケーションは、このような疎いトレーニング可能なニューラルネットワークを見つける上で、宝くじの仮説を示すための効率的な方法を発見する。
これらの結果は、よく使われる古典的ニューラルネットワークを用いた学習タスクを加速するためのQMLの道を開く。
関連論文リスト
- Training Classical Neural Networks by Quantum Machine Learning [9.002305736350833]
本研究では、量子系の指数的に大きなヒルベルト空間を利用する古典的ニューラルネットワーク(NN)のトレーニングスキームを提案する。
既存の量子機械学習(QML)法とは異なり、我々の手法を用いた量子コンピュータから得られた結果は、古典的なコンピュータで直接利用できる。
論文 参考訳(メタデータ) (2024-02-26T10:16:21Z) - Reservoir Computing via Quantum Recurrent Neural Networks [0.5999777817331317]
既存のVQCまたはQNNベースの手法は、量子回路パラメータの勾配に基づく最適化を行うために、かなりの計算資源を必要とする。
本研究では、量子リカレントニューラルネットワーク(QRNN-RC)に貯水池計算(RC)フレームワークを適用し、逐次モデリングにアプローチする。
数値シミュレーションにより、QRNN-RCは、複数の関数近似および時系列タスクに対して、完全に訓練されたQRNNモデルに匹敵する結果が得られることが示された。
論文 参考訳(メタデータ) (2022-11-04T17:30:46Z) - Accelerating the training of single-layer binary neural networks using
the HHL quantum algorithm [58.720142291102135]
Harrow-Hassidim-Lloyd (HHL) の量子力学的実装から有用な情報が抽出可能であることを示す。
しかし,本論文では,HHLの量子力学的実装から有用な情報を抽出し,古典的側面における解を見つける際の複雑性を低減することを目的としている。
論文 参考訳(メタデータ) (2022-10-23T11:58:05Z) - Optimizing Tensor Network Contraction Using Reinforcement Learning [86.05566365115729]
本稿では,グラフニューラルネットワーク(GNN)と組み合わせた強化学習(RL)手法を提案する。
この問題は、巨大な検索スペース、重い尾の報酬分布、そして困難なクレジット割り当てのために非常に難しい。
GNNを基本方針として利用するRLエージェントが,これらの課題にどのように対処できるかを示す。
論文 参考訳(メタデータ) (2022-04-18T21:45:13Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - A Quantum Convolutional Neural Network for Image Classification [7.745213180689952]
量子畳み込みニューラルネットワーク(QCNN)という新しいニューラルネットワークモデルを提案する。
QCNNは実装可能な量子回路に基づいており、古典的畳み込みニューラルネットワークと同様の構造を持つ。
MNISTデータセットの数値シミュレーションにより,本モデルの有効性が示された。
論文 参考訳(メタデータ) (2021-07-08T06:47:34Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z) - The Hintons in your Neural Network: a Quantum Field Theory View of Deep
Learning [84.33745072274942]
線形および非線形の層をユニタリ量子ゲートとして表現する方法を示し、量子モデルの基本的な励起を粒子として解釈する。
ニューラルネットワークの研究のための新しい視点と技術を開くことに加えて、量子定式化は光量子コンピューティングに適している。
論文 参考訳(メタデータ) (2021-03-08T17:24:29Z) - Quantum neural networks with deep residual learning [29.929891641757273]
本稿では,深層残留学習(resqnn)を用いた新しい量子ニューラルネットワークを提案する。
ResQNNは未知のユニタリを学び、驚くべきパフォーマンスを得ることができます。
論文 参考訳(メタデータ) (2020-12-14T18:11:07Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。