論文の概要: Optimizing embedding-related quantum annealing parameters for reducing
hardware bias
- arxiv url: http://arxiv.org/abs/2011.00719v2
- Date: Tue, 1 Dec 2020 23:25:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 13:18:52.267779
- Title: Optimizing embedding-related quantum annealing parameters for reducing
hardware bias
- Title(参考訳): ハードウェアバイアス低減のための埋め込み関連量子アニーリングパラメータの最適化
- Authors: Aaron Barbosa, Elijah Pelofske, Georg Hahn, Hristo N. Djidjev
- Abstract要約: 各インスタンスが以前に選択した固定埋め込みを使用する場合、パラメータ最適化は問題のクラス全体に対して可能であることを示す。
具体的には、トレーニングフェーズにおいて、完全グラフの埋め込みEをアニールのハードウェアに固定し、次に次のパラメータ値のセットを調整するための最適化アルゴリズムを実行する。
テストフェーズでは、トレーニングフェーズ中に計算されたパラメータが、そのクラスからの他のグラフのランダムな選択にどれくらいうまく機能するかを推定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum annealers have been designed to propose near-optimal solutions to
NP-hard optimization problems. However, the accuracy of current annealers such
as the ones of D-Wave Systems, Inc., is limited by environmental noise and
hardware biases. One way to deal with these imperfections and to improve the
quality of the annealing results is to apply a variety of pre-processing
techniques such as spin reversal (SR), anneal offsets (AO), or chain weights
(CW). Maximizing the effectiveness of these techniques involves performing
optimizations over a large number of parameters, which would be too costly if
needed to be done for each new problem instance. In this work, we show that the
aforementioned parameter optimization can be done for an entire class of
problems, given each instance uses a previously chosen fixed embedding.
Specifically, in the training phase, we fix an embedding E of a complete graph
onto the hardware of the annealer, and then run an optimization algorithm to
tune the following set of parameter values: the set of bits to be flipped for
SR, the specific qubit offsets for AO, and the distribution of chain weights,
optimized over a set of training graphs randomly chosen from that class, where
the graphs are embedded onto the hardware using E. In the testing phase, we
estimate how well the parameters computed during the training phase work on a
random selection of other graphs from that class. We investigate graph
instances of varying densities for the Maximum Clique, Maximum Cut, and Graph
Partitioning problems. Our results indicate that, compared to their default
behavior, substantial improvements of the annealing results can be achieved by
using the optimized parameters for SR, AO, and CW.
- Abstract(参考訳): 量子アニールはNP-ハード最適化問題に対する準最適解を提案するように設計されている。
しかし、D-Wave Systems, Inc.のような現在のアニーラーの精度は、環境ノイズやハードウェアバイアスによって制限されている。
これらの不完全性に対処し、焼鈍結果の品質を改善する一つの方法は、スピン反転(SR)、アニールオフセット(AO)、鎖重み(CW)といった様々な前処理技術を適用することである。
これらのテクニックの有効性を最大化するには、多数のパラメータに対して最適化を実行する必要がある。
本研究は,各インスタンスが予め選択した固定埋め込みを使用する場合,上記のパラメータ最適化が問題全体のクラスに対して可能であることを示す。
Specifically, in the training phase, we fix an embedding E of a complete graph onto the hardware of the annealer, and then run an optimization algorithm to tune the following set of parameter values: the set of bits to be flipped for SR, the specific qubit offsets for AO, and the distribution of chain weights, optimized over a set of training graphs randomly chosen from that class, where the graphs are embedded onto the hardware using E. In the testing phase, we estimate how well the parameters computed during the training phase work on a random selection of other graphs from that class.
本稿では,最大傾き,最大カット,グラフ分割問題に対する様々な密度のグラフインスタンスについて検討する。
以上の結果から, SR, AO, CWの最適化パラメータを用いることで, 既定の挙動に比べ, 焼鈍結果の大幅な改善が達成できることが示唆された。
関連論文リスト
- Graph Representation Learning for Parameter Transferability in Quantum Approximate Optimization Algorithm [1.0971022294548696]
量子近似最適化アルゴリズム(QAOA)は、量子拡張最適化による量子優位性を達成するための最も有望な候補の1つである。
本研究では,5種類のグラフ埋め込み手法を適用し,パラメータ転送可能性に対する適切なドナー候補を決定する。
この手法を用いて,パラメータ最適化に要するイテレーション数を効果的に削減し,目標問題に対する近似解を桁違いに高速化する。
論文 参考訳(メタデータ) (2024-01-12T16:01:53Z) - Reducing measurement costs by recycling the Hessian in adaptive variational quantum algorithms [0.0]
本稿では,適応VQAに適した準ニュートン最適化プロトコルを提案する。
我々は,適応VQAの繰り返しを通じて,逆ヘッセン行列に対する近似を連続的に構築し,成長させる準ニュートンアルゴリズムを実装した。
論文 参考訳(メタデータ) (2024-01-10T14:08:04Z) - Proactively incremental-learning QAOA [9.677961025372115]
逐次学習に基づく量子近似最適化アルゴリズム(QAOA)を提案する。
本手法は, 近似比(AR)とトレーニング時間において, 一般的なQAOAよりも優れた性能を有する。
論文 参考訳(メタデータ) (2023-11-04T02:15:26Z) - Optimization of Annealed Importance Sampling Hyperparameters [77.34726150561087]
Annealed Importance Smpling (AIS) は、深層生成モデルの難易度を推定するために使われる一般的なアルゴリズムである。
本稿では、フレキシブルな中間分布を持つパラメータAISプロセスを提案し、サンプリングに少ないステップを使用するようにブリッジング分布を最適化する。
我々は, 最適化AISの性能評価を行い, 深部生成モデルの限界推定を行い, 他の推定値と比較した。
論文 参考訳(メタデータ) (2022-09-27T07:58:25Z) - Twisted hybrid algorithms for combinatorial optimization [68.8204255655161]
提案されたハイブリッドアルゴリズムは、コスト関数をハミルトニアン問題にエンコードし、回路の複雑さの低い一連の状態によってエネルギーを最適化する。
レベル$p=2,ldots, 6$の場合、予想される近似比をほぼ維持しながら、レベル$p$を1に減らすことができる。
論文 参考訳(メタデータ) (2022-03-01T19:47:16Z) - Parameters Fixing Strategy for Quantum Approximate Optimization
Algorithm [0.0]
そこで本稿では,QAOAをパラメータとして初期化することで,回路深度が大きければ平均で高い近似比を与える手法を提案する。
我々は3つの正則グラフやエルド・オス=ルネニグラフのようなグラフのある種のクラスにおけるマックスカット問題に対する我々の戦略をテストする。
論文 参考訳(メタデータ) (2021-08-11T15:44:16Z) - Transferability of optimal QAOA parameters between random graphs [3.321726991033431]
本稿では, グラフの局所特性に基づいて, 特定の値に関する最適QAOAパラメータの収束を説明・予測できることを示す。
6ノードのランダムグラフに対して最適化されたパラメータを64ノードのランダムグラフに対してほぼ最適なパラメータとして変更することなくうまく利用できることを示す。
論文 参考訳(メタデータ) (2021-06-14T15:57:47Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。