論文の概要: Reinforcement learning entangling operations on spin qubits
- arxiv url: http://arxiv.org/abs/2508.14761v1
- Date: Wed, 20 Aug 2025 15:05:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.492914
- Title: Reinforcement learning entangling operations on spin qubits
- Title(参考訳): スピン量子ビット上のエンタングリング操作の強化学習
- Authors: Mohammad Abedi, Markus Schmitt,
- Abstract要約: 本稿では,半導体ベースのシングルトリップレット量子ビットに対するエンタングリングプロトコルを二重量子ドットで探索するための強化学習手法を提案する。
従来の勾配に基づく手法のモデルバイアスを回避しつつ,RLエージェントが実行プロトコルを生成できることを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-fidelity control of one- and two-qubit gates past the error correction threshold is an essential ingredient for scalable quantum computing. We present a reinforcement learning (RL) approach to find entangling protocols for semiconductor-based singlet-triplet qubits in a double quantum dot. Despite the presence of realistically modelled experimental constraints, such as various noise contributions and finite rise-time effects, we demonstrate that an RL agent can yield performative protocols, while avoiding the model-biases of traditional gradient-based methods. We optimise our RL approach for different regimes and tasks, including training from simulated process tomography reconstruction of unitary gates, and investigate the nuances of RL agent design.
- Abstract(参考訳): 誤差補正しきい値を超える1ビットおよび2ビットゲートの高忠実度制御は、スケーラブルな量子コンピューティングにとって重要な要素である。
本稿では、半導体ベースのシングルトリップレット量子ビットを二重量子ドットでエンタングリングするプロトコルを見つけるための強化学習(RL)手法を提案する。
各種ノイズコントリビューションや有限上昇時間効果など,現実的にモデル化された実験的制約が存在するにもかかわらず,従来の勾配法ではモデルバイアスを回避しつつ,RLエージェントが実行プロトコルを生成できることを実証した。
シミュレーションプロセストモグラフィによる一元ゲートの再構成の訓練や,RLエージェント設計のニュアンスなど,RLのアプローチをさまざまな状況やタスクに最適化する。
関連論文リスト
- Ring-lite: Scalable Reasoning via C3PO-Stabilized Reinforcement Learning for LLMs [51.21041884010009]
Ring-liteは、強化学習(RL)により最適化されたMixture-of-Experts(MoE)ベースの大規模言語モデルである
我々のアプローチは、挑戦的なベンチマーク上でのSOTA(State-of-the-art)の小規模推論モデルの性能と一致する。
論文 参考訳(メタデータ) (2025-06-17T17:12:34Z) - Echo Chamber: RL Post-training Amplifies Behaviors Learned in Pretraining [74.83412846804977]
強化学習(RL)に基づく微調整は、訓練後の言語モデルにおいて重要なステップとなっている。
数理推論のためのRLファインタニングを、スクラッチから完全にトレーニングモデルを用いて体系的にエンドツーエンドに研究する。
論文 参考訳(メタデータ) (2025-04-10T17:15:53Z) - Symmetric Reinforcement Learning Loss for Robust Learning on Diverse Tasks and Model Scales [13.818149654692863]
強化学習(RL)トレーニングは、移動目標や高勾配分散などの要因により本質的に不安定である。
本研究では,雑音データに対する教師付き学習から逆クロスエントロピー(RCE)を適用し,対称的なRL損失を定義することにより,RLトレーニングの安定性を向上させる。
論文 参考訳(メタデータ) (2024-05-27T19:28:33Z) - Provable Reward-Agnostic Preference-Based Reinforcement Learning [61.39541986848391]
PbRL(Preference-based Reinforcement Learning)は、RLエージェントが、軌道上のペアワイドな嗜好に基づくフィードバックを用いてタスクを最適化することを学ぶパラダイムである。
本稿では,隠れた報酬関数の正確な学習を可能にする探索軌道を求める理論的報酬非依存PbRLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:00:09Z) - Combining Reinforcement Learning and Tensor Networks, with an Application to Dynamical Large Deviations [0.0]
テンソルネットワーク(TN)と強化学習(RL)を統合するためのフレームワークを提案する。
我々は,RL問題に対するモデルフリーアプローチであるアクター批判法を考察し,そのポリシーと値関数の近似としてTNを導入する。
論文 参考訳(メタデータ) (2022-09-28T13:33:31Z) - Learning to Reweight Imaginary Transitions for Model-Based Reinforcement
Learning [58.66067369294337]
モデルが不正確または偏りがある場合、虚構軌跡はアクション値とポリシー関数を訓練するために欠落する可能性がある。
虚構遷移を適応的に再重み付けし, 未生成軌跡の負の効果を低減させる。
提案手法は,複数のタスクにおいて,最先端のモデルベースおよびモデルフリーなRLアルゴリズムより優れる。
論文 参考訳(メタデータ) (2021-04-09T03:13:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。