論文の概要: Systematic comparison of deep belief network training using quantum
annealing vs. classical techniques
- arxiv url: http://arxiv.org/abs/2009.00134v1
- Date: Mon, 31 Aug 2020 22:39:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 05:15:06.455779
- Title: Systematic comparison of deep belief network training using quantum
annealing vs. classical techniques
- Title(参考訳): 量子アニーリングを用いた深層ネットワークトレーニングと古典的手法の系統的比較
- Authors: Joshua Job, Steve Adachi
- Abstract要約: 我々は、D-Wave量子アニールをサンプリングエンジンとして使用し、ディープニューラルネットワークのトレーニングを支援する2015年の研究を再検討し、拡張した。
我々は,この量子支援学習法を,より広い範囲の古典的手法と比較した。
量子アシストトレーニングは、まだGibbsサンプリングベースの技術でCDを上回っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we revisit and expand on a 2015 study that used a D-Wave quantum
annealer as a sampling engine to assist in the training of a Deep Neural
Network. The original 2015 results were reproduced using more recent D-Wave
hardware. We systematically compare this quantum-assisted training method to a
wider range of classical techniques, including: Contrastive Divergence with a
different choice of optimizer; Contrastive Divergence with an increased number
of steps (CD-k); and Simulated Annealing (SA). We find that quantum-assisted
training still outperforms the CD with Gibbs sampling-based techniques;
however, SA is able to match the performance of quantum-assisted training
trivially using a quench-like schedule with a single sweep at high temperature
followed by one at the target temperature.
- Abstract(参考訳): この研究では、深層ニューラルネットワークのトレーニングを支援するためにサンプリングエンジンとしてd-wave量子アニーラを用いた2015年の研究を再検討し、拡張する。
2015年の最初の結果は、より最近のD-Waveハードウェアで再現された。
この量子支援トレーニング手法を,オプティマイザの異なる選択による対比的発散,ステップ数の増加(cd-k),シミュレート・アニーリング(sa)など,より幅広い古典的手法と比較した。
量子支援トレーニングは依然としてgibbsサンプリングに基づく手法でcdを上回っているが、saはクエンチライクなスケジュールと、高温での1回のスイープと、目標温度での1つのスイープを用いて、量子支援トレーニングのパフォーマンスを自明に一致させることができる。
関連論文リスト
- Towards Transfer Learning for Large-Scale Image Classification Using
Annealing-based Quantum Boltzmann Machines [7.106829260811707]
本稿では,Quantum Annealing (QA) を用いた画像分類手法を提案する。
本稿では,アニール型量子ボルツマンマシンをハイブリッド量子古典パイプラインの一部として用いることを提案する。
提案手法は,テスト精度とAUC-ROC-Scoreの点で,古典的ベースラインを一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2023-11-27T16:07:49Z) - On Quantum Annealing Without a Physical Quantum Annealer [0.0]
量子加速アニーリング(QASA)のハイブリッド量子古典の提案と評価を行う。
シミュレーションの結果,QASAはSAと相容れない性能を示したが,段差は小さくなった。
論文 参考訳(メタデータ) (2023-07-19T00:37:34Z) - Effectiveness of quantum annealing for continuous-variable optimization [0.0]
粗いエネルギー景観を持つ一次元連続変数関数に適用した量子アニールの性能を検証した。
量子アニールのハードウェア実現は、古典的アルゴリズムよりもはるかに優れている可能性があると結論付けている。
論文 参考訳(メタデータ) (2023-05-11T07:59:19Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - Efficiently Extracting Multi-Point Correlations of a Floquet Thermalized
System [9.824488596665613]
マルチボディシステムの非平衡力学は古典計算では難しい。
我々の研究は、多体系のフロケ力学をシミュレーションする実用的な量子的優位性への道を開いた。
論文 参考訳(メタデータ) (2022-10-16T14:55:49Z) - Anticipative measurements in hybrid quantum-classical computation [68.8204255655161]
量子計算を古典的な結果によって補う手法を提案する。
予測の利点を生かして、新しいタイプの量子測度がもたらされる。
予測量子測定では、古典計算と量子計算の結果の組み合わせは最後にのみ起こる。
論文 参考訳(メタデータ) (2022-09-12T15:47:44Z) - Quantum algorithms for quantum dynamics: A performance study on the
spin-boson model [68.8204255655161]
量子力学シミュレーションのための量子アルゴリズムは、伝統的に時間進化作用素のトロッター近似の実装に基づいている。
変分量子アルゴリズムは欠かせない代替手段となり、現在のハードウェア上での小規模なシミュレーションを可能にしている。
量子ゲートコストが明らかに削減されているにもかかわらず、現在の実装における変分法は量子的優位性をもたらすことはありそうにない。
論文 参考訳(メタデータ) (2021-08-09T18:00:05Z) - Assessment of image generation by quantum annealer [0.0]
量子アニールは、イジングスピングラス問題の高速サンプリングとしても機能する。
本研究では,生成モデルとしての量子アニールの性能に着目した。
論文 参考訳(メタデータ) (2021-03-15T13:24:05Z) - Nearest Centroid Classification on a Trapped Ion Quantum Computer [57.5195654107363]
我々は,古典的データを量子状態に効率よくロードし,距離推定を行う手法を用いて,量子近接Centroid分類器を設計する。
MNIST手書き桁データセットの古典的最寄りのセントロイド分類器の精度と8次元合成データの最大100%の精度とを一致させ,11量子ビットトラップイオン量子マシン上で実験的に実証した。
論文 参考訳(メタデータ) (2020-12-08T01:10:30Z) - Optimal Gradient Quantization Condition for Communication-Efficient
Distributed Training [99.42912552638168]
勾配の通信は、コンピュータビジョンアプリケーションで複数のデバイスでディープニューラルネットワークをトレーニングするのに費用がかかる。
本研究は,textbfANY勾配分布に対する二値および多値勾配量子化の最適条件を導出する。
最適条件に基づいて, 偏差BinGradと非偏差ORQの2値勾配量子化と多値勾配量子化の2つの新しい量子化手法を開発した。
論文 参考訳(メタデータ) (2020-02-25T18:28:39Z) - Large Batch Training Does Not Need Warmup [111.07680619360528]
大きなバッチサイズを使用してディープニューラルネットワークをトレーニングすることは、有望な結果を示し、多くの現実世界のアプリケーションに利益をもたらしている。
本稿では,大規模バッチ学習のための全層適応レートスケーリング(CLARS)アルゴリズムを提案する。
分析に基づいて,このギャップを埋め,3つの一般的な大規模バッチトレーニング手法の理論的洞察を提示する。
論文 参考訳(メタデータ) (2020-02-04T23:03:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。