論文の概要: Reinforcement Learning vs. Gradient-Based Optimisation for Robust Energy
Landscape Control of Spin-1/2 Quantum Networks
- arxiv url: http://arxiv.org/abs/2109.07226v1
- Date: Wed, 15 Sep 2021 11:37:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 00:57:50.391317
- Title: Reinforcement Learning vs. Gradient-Based Optimisation for Robust Energy
Landscape Control of Spin-1/2 Quantum Networks
- Title(参考訳): スピン1/2量子ネットワークのロバストエネルギー景観制御のための強化学習とグラディエントベース最適化
- Authors: I. Khalid, C. A. Weidner, E. A. Jonckheere, S. G. Schirmer, F. C.
Langbein
- Abstract要約: XX-ハイゼンベルクスピンチェーンのエネルギーランドスケープ形成による量子制御のための強化学習におけるポリシー勾配法の利用について検討する。
それらの性能は、勾配に基づくL-BFGS最適化と再起動によるコントローラの発見と比較され、解析モデルへのフルアクセスが可能である。
実測値のハミルトン雑音と粗粒化について考察した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We explore the use of policy gradient methods in reinforcement learning for
quantum control via energy landscape shaping of XX-Heisenberg spin chains in a
model agnostic fashion. Their performance is compared to finding controllers
using gradient-based L-BFGS optimisation with restarts, with full access to an
analytical model. Hamiltonian noise and coarse-graining of fidelity
measurements are considered. Reinforcement learning is able to tackle
challenging, noisy quantum control problems where L-BFGS optimization
algorithms struggle to perform well. Robustness analysis under different levels
of Hamiltonian noise indicates that controllers found by reinforcement learning
appear to be less affected by noise than those found with L-BFGS.
- Abstract(参考訳): XX-ハイゼンベルクスピン鎖のエネルギーランドスケープ形成による量子制御のための強化学習におけるポリシー勾配法をモデル非依存的に検討する。
それらの性能は、勾配に基づくL-BFGS最適化と再起動によるコントローラの発見と比較され、解析モデルへのフルアクセスが可能である。
ハミルトンノイズと粗粒度測定について考察した。
強化学習は、L-BFGS最適化アルゴリズムがうまく機能しない困難でノイズの多い量子制御問題に取り組むことができる。
ハミルトンノイズのレベルの違いによるロバスト性解析は,L-BFGSよりも強化学習による制御がノイズの影響を受けにくいことを示している。
関連論文リスト
- FOCQS: Feedback Optimally Controlled Quantum States [0.0]
FALQONのようなフィードバックベースの量子アルゴリズムは微調整の問題を避けるが、回路深度の追加と収束保証の欠如を犠牲にしている。
我々は、従来の制御層を摂動的に更新するためにそれを利用する分析フレームワークを開発した。
この摂動的手法は、フィードバックに基づくアルゴリズムの結果を改善するために、フィードバック最適化量子状態(FOCQS)と呼ぶ。
論文 参考訳(メタデータ) (2024-09-23T18:00:06Z) - Robust Federated Learning Over the Air: Combating Heavy-Tailed Noise with Median Anchored Clipping [57.40251549664762]
重み付き雑音による有害な影響に対処するため,メディアアンコールド・クリッピング (MAC) と呼ばれる新しい勾配クリッピング法を提案する。
また、MAC下でのアナログオーバー・ザ・エア・フェデレーション学習によるモデルトレーニングの収束率の解析式も導出する。
論文 参考訳(メタデータ) (2024-09-23T15:11:40Z) - Growing Q-Networks: Solving Continuous Control Tasks with Adaptive Control Resolution [51.83951489847344]
ロボット工学の応用において、スムーズな制御信号はシステム摩耗とエネルギー効率を減らすために一般的に好まれる。
本研究では,離散的な動作空間を粗い状態から細かい制御分解能まで拡大することにより,この性能ギャップを埋めることを目的とする。
我々の研究は、値分解とアダプティブ・コントロール・リゾリューションが組み合わさることで、単純な批判のみのアルゴリズムが得られ、連続制御タスクにおいて驚くほど高い性能が得られることを示唆している。
論文 参考訳(メタデータ) (2024-04-05T17:58:37Z) - Fast Value Tracking for Deep Reinforcement Learning [7.648784748888187]
強化学習(Reinforcement Learning, RL)は、環境と対話するエージェントを作成することによって、シーケンシャルな意思決定問題に取り組む。
既存のアルゴリズムはしばしばこれらの問題を静的とみなし、期待される報酬を最大化するためにモデルパラメータの点推定に重点を置いている。
我々の研究は、カルマンパラダイムを活用して、Langevinized Kalman TemporalTDと呼ばれる新しい定量化およびサンプリングアルゴリズムを導入する。
論文 参考訳(メタデータ) (2024-03-19T22:18:19Z) - Enhancing Quantum Circuit Noise Robustness from a Geometric Perspective [2.1789818083464203]
ノイズの多い環境での量子エラーは、量子情報技術の進歩の大きな障害である。
本稿では、ツイリング技術を用いて、回路ノイズの堅牢性を向上する方法を示す。
本研究は、制御パルスの単なる最適化以上のノイズ耐性量子制御を実現するための経路を照らす。
論文 参考訳(メタデータ) (2023-05-11T13:34:39Z) - Hamiltonian Switching Control of Noisy Bipartite Qubit Systems [7.094462708097975]
我々は量子近似最適化アルゴリズム(QAOA)にインスパイアされた二部制御のためのハミルトンスイッチングアンサッツを開発する。
連続音と消音音の両方を効果的に抑制し,0.9999(4つの9)以上の忠実度を持つ目標ゲート実装を実現する数値実験を行った。
制御深度,総進化時間,環境TLS数,最適化手法の選択が最適プロトコルによって達成される忠実度に与える影響を解析した。
論文 参考訳(メタデータ) (2023-04-11T20:12:57Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Improve Noise Tolerance of Robust Loss via Noise-Awareness [60.34670515595074]
本稿では,NARL-Adjuster(NARL-Adjuster for brevity)と呼ばれる,ハイパーパラメータ予測関数を適応的に学習するメタラーニング手法を提案する。
4つのSOTAロバストな損失関数を我々のアルゴリズムに統合し,提案手法の一般性および性能をノイズ耐性と性能の両面で検証した。
論文 参考訳(メタデータ) (2023-01-18T04:54:58Z) - Gradient-free quantum optimization on NISQ devices [0.0]
重み依存学習の最近の進歩を考察し、適切な回路アーキテクチャとパラメータチューニングのトレードオフに対処する戦略を提案する。
遺伝的競合を介して回路を評価するNEATに基づくアルゴリズムの使用を検討し、パラメータ数を超えることにより問題を回避します。
論文 参考訳(メタデータ) (2020-12-23T10:24:54Z) - Reinforcement Learning for Low-Thrust Trajectory Design of
Interplanetary Missions [77.34726150561087]
本稿では, 惑星間軌道のロバスト設計における強化学習の適用について検討する。
最先端アルゴリズムのオープンソース実装が採用されている。
その結果得られた誘導制御ネットワークは、堅牢な名目的軌道と関連する閉ループ誘導法の両方を提供する。
論文 参考訳(メタデータ) (2020-08-19T15:22:15Z) - Responsive Safety in Reinforcement Learning by PID Lagrangian Methods [74.49173841304474]
ラグランジアン法は振動とオーバーシュートを示し、安全強化学習に適用すると制約違反行動を引き起こす。
制約関数の微分を利用する新しいラグランジュ乗算器更新法を提案する。
我々はPIDラグランジアン法を深部RLに適用し、安全RLベンチマークであるSafety Gymにおける新しい技術状態を設定する。
論文 参考訳(メタデータ) (2020-07-08T08:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。