論文の概要: Latency-aware adaptive shot allocation for run-time efficient
variational quantum algorithms
- arxiv url: http://arxiv.org/abs/2302.04422v1
- Date: Thu, 9 Feb 2023 03:27:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-10 16:56:54.875692
- Title: Latency-aware adaptive shot allocation for run-time efficient
variational quantum algorithms
- Title(参考訳): 実行時効率変動量子アルゴリズムのための遅延対応型適応ショットアロケーション
- Authors: Kosuke Ito
- Abstract要約: 繰り返しを推定するために用いられる勾配測定ショットの数を決定するための適応的戦略が提案されている。
オーバーヘッドを明示的に考慮し、単位時間当たりの期待利得を最大化するために、各バランスにおけるショット数に適応的な戦略を提案する。
数値シミュレーションにより,我々のアダプティブショット戦略はAdamにとって実効性があり,既存のアダプティブショット戦略よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efficient classical optimizers are crucial in practical implementations of
Variational Quantum Algorithms (VQAs). In particular, to make Stochastic
Gradient Descent (SGD) resource efficient, adaptive strategies have been
proposed to determine the number of measurement shots used to estimate the
gradient. However, existing strategies overlook the overhead that occurs in
each iteration. In terms of wall-clock runtime, significant circuit-switching
and communication latency can slow the optimization process when using a large
number of iterations. In terms of economic cost when using cloud services,
per-task prices can become significant. To address these issues, we present an
adaptive strategy that balances the number of shots in each iteration to
maximize expected gain per unit time or cost by explicitly taking into account
the overhead. Our approach can be applied to not only to the simple SGD but
also its variants, including Adam. Numerical simulations show that our adaptive
shot strategy is actually efficient for Adam, outperforming many existing
state-of-the-art adaptive shot optimizers. However, this is not the case for
the simple SGD. When focusing on the number of shots as the resource, our
adaptive-shots Adam with zero-overhead also outperforms existing optimizers.
- Abstract(参考訳): 変分量子アルゴリズム(VQA)の実用化において,効率的な古典最適化が重要である。
特に,SGD(Stochastic Gradient Descent)資源を効率的にするために,勾配を推定するための計測ショットの数を決定するための適応戦略が提案されている。
しかし、既存の戦略は各イテレーションで発生するオーバーヘッドを見落としています。
ウォールクロックのランタイムに関しては、多くのイテレーションを使用する場合、回路スイッチングと通信遅延が最適化プロセスを遅くする可能性がある。
クラウドサービスを使用する場合の経済的コストという点では、タスクごとの価格が重要になる可能性がある。
これらの問題に対処するために,我々は,各イテレーションにおけるショット数をバランスさせ,オーバーヘッドを明示的に考慮し,単位時間やコスト当たりの期待利得を最大化する適応戦略を提案する。
我々のアプローチは、単純なSGDだけでなく、Adamを含むその変種にも適用できる。
数値シミュレーションにより,我々のアダプティブショット戦略はadamにとって効率的であることが示され,既存のアダプティブショットオプティマイザを上回っている。
しかし、これは単純な SGD には当てはまらない。
リソースとしてショット数にフォーカスすると、ゼロオーバヘッドのアダプティブショットも既存のオプティマイザよりも優れています。
関連論文リスト
- Switchable Decision: Dynamic Neural Generation Networks [98.61113699324429]
本稿では,各データインスタンスのリソースを動的に割り当てることで,推論を高速化するスイッチブルな決定を提案する。
提案手法は, 同一の精度を維持しながら, 推論時のコスト低減に有効である。
論文 参考訳(メタデータ) (2024-05-07T17:44:54Z) - Zero-Shot Sharpness-Aware Quantization for Pre-trained Language Models [88.80146574509195]
量子化は、メモリオーバーヘッドを減らし、推論を加速するための有望なアプローチである。
種々のPLMのゼロショット量子化のための新しい量子化(ZSAQ)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-20T07:09:56Z) - Iterative Layerwise Training for Quantum Approximate Optimization
Algorithm [0.39945675027960637]
最適化問題の解法における量子近似最適化アルゴリズム(QAOA)の能力は近年,盛んに研究されている。
本稿では,QAOAによる問題解決における最適化コスト削減の可能性を検討する。
論文 参考訳(メタデータ) (2023-09-24T05:12:48Z) - CAME: Confidence-guided Adaptive Memory Efficient Optimization [20.009302737137787]
適応勾配法は大規模言語モデルの訓練において優れた性能を示した。
二次モーメント推定の維持には、メモリオーバーヘッドの増大を高いコストで維持する必要がある。
補助メモリ使用量の大幅な削減を実現するために、いくつかのメモリ効率が提案されているが、性能上のペナルティがある。
我々は,従来の適応手法のように高速収束,メモリ効率の低い2つの目標を同時に達成するために,CAMEを提案する。
論文 参考訳(メタデータ) (2023-07-05T06:05:36Z) - SADAM: Stochastic Adam, A Stochastic Operator for First-Order
Gradient-based Optimizer [8.93274096260726]
本稿では,一階降下アルゴリズムの演算子として行う戦略を提案し,解析し,一般化する。
既存のアルゴリズムとは異なり、提案手法ではバッチやサンプリング技術は一切必要としない。
論文 参考訳(メタデータ) (2022-05-20T15:20:19Z) - Evolving Pareto-Optimal Actor-Critic Algorithms for Generalizability and
Stability [67.8426046908398]
汎用性と安定性は,実世界における強化学習(RL)エージェントの運用において重要な2つの目的である。
本稿では,アクター・クリティック・ロス関数の自動設計法であるMetaPGを提案する。
論文 参考訳(メタデータ) (2022-04-08T20:46:16Z) - Stochastic Gradient Line Bayesian Optimization: Reducing Measurement
Shots in Optimizing Parameterized Quantum Circuits [4.94950858749529]
我々は、少ない測定ショットで回路最適化を行うための効率的なフレームワークを開発する。
我々は、正確な期待値推定に頼ることなく、最適化を実現するための適応的な計測ショット戦略を定式化する。
本稿では,VQAsの最適化において,接尾辞平均化手法が統計的およびハードウェアノイズの影響を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-11-15T18:00:14Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z) - Obtaining Adjustable Regularization for Free via Iterate Averaging [43.75491612671571]
最適化のための正規化は、機械学習の過度な適合を避けるための重要なテクニックである。
我々は、任意の強凸かつ滑らかな対象関数上のSGDの繰り返しを正規化された関数に変換する平均化スキームを確立する。
提案手法は,高速化および事前条件最適化手法にも利用できる。
論文 参考訳(メタデータ) (2020-08-15T15:28:05Z) - Balancing Rates and Variance via Adaptive Batch-Size for Stochastic
Optimization Problems [120.21685755278509]
本研究は,ステップサイズの減衰が正確な収束に必要であるという事実と,一定のステップサイズがエラーまでの時間でより速く学習するという事実のバランスをとることを目的とする。
ステップサイズのミニバッチを最初から修正するのではなく,パラメータを適応的に進化させることを提案する。
論文 参考訳(メタデータ) (2020-07-02T16:02:02Z) - Stochastic batch size for adaptive regularization in deep network
optimization [63.68104397173262]
ディープラーニングフレームワークにおける機械学習問題に適用可能な適応正規化を取り入れた一階最適化アルゴリズムを提案する。
一般的なベンチマークデータセットに適用した従来のネットワークモデルに基づく画像分類タスクを用いて,提案アルゴリズムの有効性を実証的に実証した。
論文 参考訳(メタデータ) (2020-04-14T07:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。