論文の概要: Accelerating Inference for Multilayer Neural Networks with Quantum Computers
- arxiv url: http://arxiv.org/abs/2510.07195v1
- Date: Wed, 08 Oct 2025 16:26:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.630388
- Title: Accelerating Inference for Multilayer Neural Networks with Quantum Computers
- Title(参考訳): 量子コンピュータを用いた多層ニューラルネットワークの高速化推論
- Authors: Arthur G. Rattew, Po-Wei Huang, Naixu Guo, Lirandë Pira, Patrick Rebentrost,
- Abstract要約: 非線形アクティベーション機能を持つ多層ニューラルネットワークの完全コヒーレントな量子実装について述べる。
3つの量子データアクセス体制下でのネットワークの推論の複雑さを分析する。
- 参考スコア(独自算出の注目度): 4.168548169504036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fault-tolerant Quantum Processing Units (QPUs) promise to deliver exponential speed-ups in select computational tasks, yet their integration into modern deep learning pipelines remains unclear. In this work, we take a step towards bridging this gap by presenting the first fully-coherent quantum implementation of a multilayer neural network with non-linear activation functions. Our constructions mirror widely used deep learning architectures based on ResNet, and consist of residual blocks with multi-filter 2D convolutions, sigmoid activations, skip-connections, and layer normalizations. We analyse the complexity of inference for networks under three quantum data access regimes. Without any assumptions, we establish a quadratic speedup over classical methods for shallow bilinear-style networks. With efficient quantum access to the weights, we obtain a quartic speedup over classical methods. With efficient quantum access to both the inputs and the network weights, we prove that a network with an $N$-dimensional vectorized input, $k$ residual block layers, and a final residual-linear-pooling layer can be implemented with an error of $\epsilon$ with $O(\text{polylog}(N/\epsilon)^k)$ inference cost.
- Abstract(参考訳): フォールトトレラントな量子処理ユニット(QPU)は、特定の計算タスクにおいて指数的なスピードアップを実現することを約束するが、現代のディープラーニングパイプラインへの統合は未だ不明である。
本研究では,非線形活性化関数を持つ多層ニューラルネットワークの完全コヒーレントな量子実装を初めて提示することにより,このギャップを埋めるための一歩を踏み出した。
提案手法は,ResNetに基づくディープラーニングアーキテクチャを広く利用し,マルチフィルタ2D畳み込み,シグモイドアクティベーション,スキップ接続,レイヤ正規化などの残余ブロックで構成されている。
3つの量子データアクセス体制下でのネットワークの推論の複雑さを分析する。
仮定なしでは、浅い双線型ネットワークの古典的手法を2次的に高速化する。
重みへの効率的な量子アクセスにより、古典的手法によるクォートスピードアップが得られる。
入力とネットワーク重みの両方に対する効率的な量子アクセスにより、$N$次元ベクトル化入力、$k$残留ブロック層、最終的な残留線形プール層を持つネットワークが$O(\text{polylog}(N/\epsilon)^k)$推論コストで$\epsilon$の誤差で実装可能であることを示す。
関連論文リスト
- Dissipation-driven quantum generative adversarial networks [11.833077116494929]
本稿では,従来のデータ生成に適した,分散駆動型量子生成逆数ネットワーク(DQGAN)アーキテクチャを提案する。
古典データは、強い調整された散逸過程を通じて入力層の入力量子ビットに符号化される。
出力量子ビットの定常状態の可観測値を測定することにより、生成されたデータと分類結果の両方を抽出する。
論文 参考訳(メタデータ) (2024-08-28T07:41:58Z) - SWAP-less Implementation of Quantum Algorithms [0.0]
本稿では,接続性に制限のあるデバイスにアルゴリズムを実装するために,パリティ量子情報のフローを追跡するフォーマリズムを提案する。
我々は、エンタングゲートが量子状態を操作するだけでなく、量子情報の伝達にも活用できるという事実を活用している。
論文 参考訳(メタデータ) (2024-08-20T14:51:00Z) - Quantum Ridgelet Transform: Winning Lottery Ticket of Neural Networks
with Quantum Computation [8.947825738917869]
リッジレット変換は、ニューラルネットワークの理論研究における基本的な数学的ツールである。
我々は、線形実行時$exp(O(D))$の量子計算において、量子状態のリッジレット変換を実装する量子リッジレット変換(QRT)を開発した。
アプリケーションとして、QMLの基本的なサブルーチンとしてQRTを使用することで、大きな浅い広帯域ニューラルネットワークのスパーストレーニング可能なサブネットワークを効率的に見つけることができることを示す。
論文 参考訳(メタデータ) (2023-01-27T19:00:00Z) - Accelerating the training of single-layer binary neural networks using
the HHL quantum algorithm [58.720142291102135]
Harrow-Hassidim-Lloyd (HHL) の量子力学的実装から有用な情報が抽出可能であることを示す。
しかし,本論文では,HHLの量子力学的実装から有用な情報を抽出し,古典的側面における解を見つける際の複雑性を低減することを目的としている。
論文 参考訳(メタデータ) (2022-10-23T11:58:05Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Optimizing Tensor Network Contraction Using Reinforcement Learning [86.05566365115729]
本稿では,グラフニューラルネットワーク(GNN)と組み合わせた強化学習(RL)手法を提案する。
この問題は、巨大な検索スペース、重い尾の報酬分布、そして困難なクレジット割り当てのために非常に難しい。
GNNを基本方針として利用するRLエージェントが,これらの課題にどのように対処できるかを示す。
論文 参考訳(メタデータ) (2022-04-18T21:45:13Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Quantum Annealing Formulation for Binary Neural Networks [40.99969857118534]
本研究では、リソース制約のあるデバイスを意図した軽量で強力なモデルであるバイナリニューラルネットワークについて検討する。
トレーニング問題に対する2次非制約バイナリ最適化の定式化を考案する。
問題は難解であり、すなわち、二分重みを推定するコストはネットワークサイズと指数関数的にスケールするが、どのようにして問題を量子アニール器に直接最適化できるかを示す。
論文 参考訳(メタデータ) (2021-07-05T03:20:54Z) - A Greedy Algorithm for Quantizing Neural Networks [4.683806391173103]
本稿では,事前学習したニューラルネットワークの重みを定量化するための計算効率のよい新しい手法を提案する。
本手法は,複雑な再学習を必要とせず,反復的に層を定量化する手法である。
論文 参考訳(メタデータ) (2020-10-29T22:53:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。