論文の概要: Reinforcement Learning vs. Gradient-Based Optimisation for Robust Energy
Landscape Control of Spin-1/2 Quantum Networks
- arxiv url: http://arxiv.org/abs/2109.07226v1
- Date: Wed, 15 Sep 2021 11:37:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 00:57:50.391317
- Title: Reinforcement Learning vs. Gradient-Based Optimisation for Robust Energy
Landscape Control of Spin-1/2 Quantum Networks
- Title(参考訳): スピン1/2量子ネットワークのロバストエネルギー景観制御のための強化学習とグラディエントベース最適化
- Authors: I. Khalid, C. A. Weidner, E. A. Jonckheere, S. G. Schirmer, F. C.
Langbein
- Abstract要約: XX-ハイゼンベルクスピンチェーンのエネルギーランドスケープ形成による量子制御のための強化学習におけるポリシー勾配法の利用について検討する。
それらの性能は、勾配に基づくL-BFGS最適化と再起動によるコントローラの発見と比較され、解析モデルへのフルアクセスが可能である。
実測値のハミルトン雑音と粗粒化について考察した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We explore the use of policy gradient methods in reinforcement learning for
quantum control via energy landscape shaping of XX-Heisenberg spin chains in a
model agnostic fashion. Their performance is compared to finding controllers
using gradient-based L-BFGS optimisation with restarts, with full access to an
analytical model. Hamiltonian noise and coarse-graining of fidelity
measurements are considered. Reinforcement learning is able to tackle
challenging, noisy quantum control problems where L-BFGS optimization
algorithms struggle to perform well. Robustness analysis under different levels
of Hamiltonian noise indicates that controllers found by reinforcement learning
appear to be less affected by noise than those found with L-BFGS.
- Abstract(参考訳): XX-ハイゼンベルクスピン鎖のエネルギーランドスケープ形成による量子制御のための強化学習におけるポリシー勾配法をモデル非依存的に検討する。
それらの性能は、勾配に基づくL-BFGS最適化と再起動によるコントローラの発見と比較され、解析モデルへのフルアクセスが可能である。
ハミルトンノイズと粗粒度測定について考察した。
強化学習は、L-BFGS最適化アルゴリズムがうまく機能しない困難でノイズの多い量子制御問題に取り組むことができる。
ハミルトンノイズのレベルの違いによるロバスト性解析は,L-BFGSよりも強化学習による制御がノイズの影響を受けにくいことを示している。
関連論文リスト
- Non-Markovian Quantum Control via Model Maximum Likelihood Estimation
and Reinforcement Learning [0.0]
環境の非マルコフ的性質を低次元有効貯留層に組み込む新しい手法を提案する。
従来のトモグラフィ法よりも効率的な量子力学の学習に機械学習技術を用いる。
このアプローチはモデルバイアスの問題を緩和するだけでなく、量子力学のより正確な表現を提供する。
論文 参考訳(メタデータ) (2024-02-07T18:37:17Z) - mL-BFGS: A Momentum-based L-BFGS for Distributed Large-Scale Neural
Network Optimization [35.08820062020787]
大規模分散ディープニューラルネットワーク(DNN)における準ニュートン法(QN)の道筋を舗装する運動量に基づくL-BFGSアルゴリズムを提案する。
大規模なモデルトレーニングでは、mL-BFGSはブロックワイドのヘシアンを近似し、計算とメモリのコストを全計算に分散させる。
以上の結果から,mL-BFGSはグラデーションワイドとウォールクロックのスピードアップを両立させることがわかった。
論文 参考訳(メタデータ) (2023-07-25T18:03:29Z) - Hamiltonian Switching Control of Noisy Bipartite Qubit Systems [7.094462708097975]
我々は量子近似最適化アルゴリズム(QAOA)にインスパイアされた二部制御のためのハミルトンスイッチングアンサッツを開発する。
連続音と消音音の両方を効果的に抑制し,0.9999(4つの9)以上の忠実度を持つ目標ゲート実装を実現する数値実験を行った。
制御深度,総進化時間,環境TLS数,最適化手法の選択が最適プロトコルによって達成される忠実度に与える影響を解析した。
論文 参考訳(メタデータ) (2023-04-11T20:12:57Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Improve Noise Tolerance of Robust Loss via Noise-Awareness [60.34670515595074]
本稿では,NARL-Adjuster(NARL-Adjuster for brevity)と呼ばれる,ハイパーパラメータ予測関数を適応的に学習するメタラーニング手法を提案する。
4つのSOTAロバストな損失関数を我々のアルゴリズムに統合し,提案手法の一般性および性能をノイズ耐性と性能の両面で検証した。
論文 参考訳(メタデータ) (2023-01-18T04:54:58Z) - Gradient Ascent Pulse Engineering with Feedback [0.0]
本稿では,モデルなし強化学習の概念を取り入れたフィードバック-GRAPEを提案する。
本手法は,ノイズの存在下での状態調整と安定化のための解釈可能なフィードバック戦略を導出する。
論文 参考訳(メタデータ) (2022-03-08T18:46:09Z) - Fast Distributionally Robust Learning with Variance Reduced Min-Max
Optimization [85.84019017587477]
分散的ロバストな教師付き学習は、現実世界のアプリケーションのための信頼性の高い機械学習システムを構築するための重要なパラダイムとして登場している。
Wasserstein DRSLを解くための既存のアルゴリズムは、複雑なサブプロブレムを解くか、勾配を利用するのに失敗する。
我々はmin-max最適化のレンズを通してwaserstein drslを再検討し、スケーラブルで効率的に実装可能な超勾配アルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-04-27T16:56:09Z) - Gradient-free quantum optimization on NISQ devices [0.0]
重み依存学習の最近の進歩を考察し、適切な回路アーキテクチャとパラメータチューニングのトレードオフに対処する戦略を提案する。
遺伝的競合を介して回路を評価するNEATに基づくアルゴリズムの使用を検討し、パラメータ数を超えることにより問題を回避します。
論文 参考訳(メタデータ) (2020-12-23T10:24:54Z) - Reinforcement Learning for Low-Thrust Trajectory Design of
Interplanetary Missions [77.34726150561087]
本稿では, 惑星間軌道のロバスト設計における強化学習の適用について検討する。
最先端アルゴリズムのオープンソース実装が採用されている。
その結果得られた誘導制御ネットワークは、堅牢な名目的軌道と関連する閉ループ誘導法の両方を提供する。
論文 参考訳(メタデータ) (2020-08-19T15:22:15Z) - Neural networks with late-phase weights [66.72777753269658]
学習後期に重みのサブセットを組み込むことで,SGDの解をさらに改善できることを示す。
学習の終わりに、重み空間における空間平均を取ることにより、1つのモデルを取得する。
論文 参考訳(メタデータ) (2020-07-25T13:23:37Z) - Responsive Safety in Reinforcement Learning by PID Lagrangian Methods [74.49173841304474]
ラグランジアン法は振動とオーバーシュートを示し、安全強化学習に適用すると制約違反行動を引き起こす。
制約関数の微分を利用する新しいラグランジュ乗算器更新法を提案する。
我々はPIDラグランジアン法を深部RLに適用し、安全RLベンチマークであるSafety Gymにおける新しい技術状態を設定する。
論文 参考訳(メタデータ) (2020-07-08T08:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。