論文の概要: How to Train Your Dragon: Quantum Neural Networks
- arxiv url: http://arxiv.org/abs/2506.05244v1
- Date: Thu, 05 Jun 2025 17:03:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.83763
- Title: How to Train Your Dragon: Quantum Neural Networks
- Title(参考訳): 量子ニューラルネットワークでドラゴンを訓練する方法
- Authors: Hao Zhang, Alex Kamenev,
- Abstract要約: ニューラルネットワーク(NN)のトレーニングは、計算資源とエネルギー資源の両方の主要な消費者として現れている。
我々は、D-Waveのような量子アニールプラットフォームが、古典的NNの高速かつ効率的なトレーニングを可能にすることを実証した。
- 参考スコア(独自算出の注目度): 4.96596848660858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training of neural networks (NNs) has emerged as a major consumer of both computational and energy resources. We demonstrate that quantum annealing platforms, such as D-Wave, can enable fast and efficient training of classical NNs, which are then deployable on conventional hardware. From a physics perspective, NN training can be viewed as a dynamical phase transition: the system evolves from an initial spin glass state to a highly ordered, trained state. This process involves eliminating numerous undesired minima in its energy landscape--akin to cutting off the ever-regenerating heads of a dragon. The advantage of annealing devices is their ability to rapidly find multiple deep states (dragon heads to be cut). We found that this quantum-assisted training achieves superior performance scaling compared to classical backpropagation methods, with a notably higher scaling exponent (1.01 vs. 0.78). It may be further increased up to a factor of 2 with a fully coherent quantum platform using a variant of the Grover algorithm. Furthermore, we argue that even a modestly sized annealer can be beneficial to train a deep NN by being applied sequentially to a few layers at a time.
- Abstract(参考訳): ニューラルネットワーク(NN)のトレーニングは、計算資源とエネルギー資源の両方の主要な消費者として現れている。
D-Waveのような量子アニールプラットフォームは、従来のハードウェア上で展開可能な古典的NNの高速かつ効率的なトレーニングを可能にすることを実証する。
物理学の観点からは、NNトレーニングは動的相転移と見なすことができ、システムは初期スピンガラス状態から高度に秩序づけられた訓練状態へと進化する。
このプロセスには、多くの望ましくないミニマをエネルギーの風景から取り除くことが含まれます。
アニール装置の利点は、複数の深い状態(切り取られる竜頭)を素早く見つける能力である。
従来のバックプロパゲーション法と比較して,この量子支援トレーニングは優れたスケーリングを実現することが判明した(1.01対0.78)。
さらに、Groverアルゴリズムの変種を用いて、完全コヒーレントな量子プラットフォームを持つ因子を2に増やすことができる。
さらに,数層に順次適用することで,比較的小型のアニーラーであっても,深層NNのトレーニングに有用であると主張する。
関連論文リスト
- Training-efficient density quantum machine learning [2.918930150557355]
我々は、トレーニング可能なユニタリの混合を準備するモデルファミリーである密度量子ニューラルネットワークを導入する。
このフレームワークは、特に量子ハードウェア上で、表現性と効率的なトレーサビリティのバランスをとる。
論文 参考訳(メタデータ) (2024-05-30T16:40:28Z) - Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - Towards Neural Variational Monte Carlo That Scales Linearly with System
Size [67.09349921751341]
量子多体問題(Quantum many-body problem)は、例えば高温超伝導体のようなエキゾチックな量子現象をデミストする中心である。
量子状態を表すニューラルネットワーク(NN)と変分モンテカルロ(VMC)アルゴリズムの組み合わせは、そのような問題を解決する上で有望な方法であることが示されている。
ベクトル量子化技術を用いて,VMCアルゴリズムの局所エネルギー計算における冗長性を利用するNNアーキテクチャVector-Quantized Neural Quantum States (VQ-NQS)を提案する。
論文 参考訳(メタデータ) (2022-12-21T19:00:04Z) - Completely Quantum Neural Networks [0.0]
一般的なニューラルネットワークを量子アニールに埋め込んでトレーニングする方法を解説する。
本稿では,ネットワークの自由パラメータ,アクティベーション関数の近似,および2次高次成分を1つに還元する3つの重要な材料を開発する。
我々はこれを基本的ネットワークに実装し、損失関数のグローバルな最小値を見つけるための一貫性と、ネットワークトレーニングが単一ステップで収束するという事実という量子トレーニングの利点を説明している。
論文 参考訳(メタデータ) (2022-02-23T19:00:03Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Quantum Annealing Formulation for Binary Neural Networks [40.99969857118534]
本研究では、リソース制約のあるデバイスを意図した軽量で強力なモデルであるバイナリニューラルネットワークについて検討する。
トレーニング問題に対する2次非制約バイナリ最適化の定式化を考案する。
問題は難解であり、すなわち、二分重みを推定するコストはネットワークサイズと指数関数的にスケールするが、どのようにして問題を量子アニール器に直接最適化できるかを示す。
論文 参考訳(メタデータ) (2021-07-05T03:20:54Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Quantum-Classical Machine learning by Hybrid Tensor Networks [14.851178989158976]
本研究では,テンソルネットワークと古典ニューラルネットワークを組み合わせた量子古典ハイブリッドネットワーク(HTN)を提案する。
量子分類や量子オートエンコーダなど,HTNの応用の可能性を示す。
論文 参考訳(メタデータ) (2020-05-15T10:20:35Z) - Robust Pruning at Initialization [61.30574156442608]
計算リソースが限られているデバイス上で、機械学習アプリケーションを使用するための、より小さく、エネルギー効率のよいニューラルネットワークの必要性が高まっている。
ディープNNにとって、このような手順はトレーニングが困難であり、例えば、ひとつの層が完全に切断されるのを防ぐことができないため、満足できないままである。
論文 参考訳(メタデータ) (2020-02-19T17:09:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。