論文の概要: Deep learning optimal quantum annealing schedules for random Ising
models
- arxiv url: http://arxiv.org/abs/2211.15209v1
- Date: Mon, 28 Nov 2022 10:36:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 15:08:52.959456
- Title: Deep learning optimal quantum annealing schedules for random Ising
models
- Title(参考訳): ランダムイジングモデルのためのディープラーニング最適量子アニールスケジュール
- Authors: Pratibha Raghupati Hegde, Gianluca Passarelli, Giovanni Cantele, and
Procolo Lucignano
- Abstract要約: 我々は,Long short term memory(LSTM)ニューラルネットワークを用いて,正規グラフ上の(ランダム)重み付きMax-Cutの最適焼鈍スケジュールの探索を自動化することを提案する。
未確認のインスタンスや、トレーニングに使用されるグラフよりも大きいグラフに対して、最適なアニールスケジュールを予測できます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A crucial step in the race towards quantum advantage is optimizing quantum
annealing using ad-hoc annealing schedules. Motivated by recent progress in the
field, we propose to employ long short term memory (LSTM) neural networks to
automate the search for optimal annealing schedules for (random) weighted
Max-Cut on regular graphs. By training our network using locally adiabatic
annealing paths, we are able to predict optimal annealing schedules for unseen
instances and even larger graphs than those used for training.
- Abstract(参考訳): 量子アドバンテージへの競争における重要なステップは、アドホックアニーリングスケジュールを用いた量子アニーリングの最適化である。
この分野の最近の進展に触発されて、我々は、正規グラフ上の(ランダム)重み付きMax-Cutの最適焼鈍スケジュールの探索を自動化するために、長期記憶(LSTM)ニューラルネットワークを提案する。
局所断熱焼鈍経路を用いてネットワークを訓練することにより,未発見のインスタンスやより大きなグラフに対する最適焼鈍スケジュールを,トレーニングに使用するものよりも予測することができる。
関連論文リスト
- Quantum Annealing with chaotic driver Hamiltonians [0.0]
本稿では,Sachdev-Ye-Kitaev(SYK)モデルのボソニックスピンバージョンに基づくドライバー・ハミルトンについて検討する。
その結果、SYKモデルインスタンスのかなりの割合は、大幅なスピードアップを示していることがわかった。
論文 参考訳(メタデータ) (2024-09-30T17:39:54Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Dynamic Scheduling for Federated Edge Learning with Streaming Data [56.91063444859008]
我々は,長期的エネルギー制約のある分散エッジデバイスにおいて,トレーニングデータを時間とともにランダムに生成するフェデレーションエッジ学習(FEEL)システムを検討する。
限られた通信リソースとレイテンシ要件のため、各イテレーションでローカルトレーニングプロセスに参加するのはデバイスのサブセットのみである。
論文 参考訳(メタデータ) (2023-05-02T07:41:16Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Genetic optimization of quantum annealing [0.0]
本稿では,量子アニールの性能向上のための遺伝的アルゴリズムに基づく数値計算手法を提案する。
また,実際に実現可能な$k$ローカル最適運転演算子を演算することで,アベイティティへのショートカットを探索する。
論文 参考訳(メタデータ) (2021-08-06T15:59:23Z) - Short-Term Memory Optimization in Recurrent Neural Networks by
Autoencoder-based Initialization [79.42778415729475]
線形オートエンコーダを用いた列列の明示的暗記に基づく代替解を提案する。
このような事前学習が、長いシーケンスで難しい分類タスクを解くのにどのように役立つかを示す。
提案手法は, 長周期の復元誤差をはるかに小さくし, 微調整時の勾配伝播を良くすることを示す。
論文 参考訳(メタデータ) (2020-11-05T14:57:16Z) - Stochastic Markov Gradient Descent and Training Low-Bit Neural Networks [77.34726150561087]
本稿では,量子化ニューラルネットワークのトレーニングに適用可能な離散最適化手法であるGradient Markov Descent (SMGD)を紹介する。
アルゴリズム性能の理論的保証と数値的な結果の促進を提供する。
論文 参考訳(メタデータ) (2020-08-25T15:48:15Z) - Optimizing Quantum Annealing Schedules with Monte Carlo Tree Search
enhanced with neural networks [17.819359687456366]
断熱アルゴリズムは、アニーリングパスの終端で問題符号化されたハミルトニアンの基礎状態を作成する。
我々はモンテカルロ木探索 (MCTS) アルゴリズムを提案し,その拡張バージョンをニューラルネットワークで強化し,QuantumZero (QZero) と名付けた。
MCTSとQZeroのアルゴリズムは、効果的なアニールスケジュールの発見において、非常によく機能する。
論文 参考訳(メタデータ) (2020-04-06T17:29:32Z) - Stochastic gradient descent with random learning rate [0.0]
本稿では,一様分散ランダム学習率でニューラルネットワークを最適化することを提案する。
ランダムな学習率プロトコルを周期的および定常的なプロトコルと比較することにより、ランダムな選択は、一般に小規模学習率体系における最良の戦略であると示唆する。
我々は、MNISTデータセットとCIFAR10データセットの画像分類のための、浅い、完全に接続された、深い、畳み込みニューラルネットワークの実験を通じて、支持エビデンスを提供する。
論文 参考訳(メタデータ) (2020-03-15T21:36:46Z) - Large Batch Training Does Not Need Warmup [111.07680619360528]
大きなバッチサイズを使用してディープニューラルネットワークをトレーニングすることは、有望な結果を示し、多くの現実世界のアプリケーションに利益をもたらしている。
本稿では,大規模バッチ学習のための全層適応レートスケーリング(CLARS)アルゴリズムを提案する。
分析に基づいて,このギャップを埋め,3つの一般的な大規模バッチトレーニング手法の理論的洞察を提示する。
論文 参考訳(メタデータ) (2020-02-04T23:03:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。