論文の概要: Optimising entanglement distribution policies under classical communication constraints assisted by reinforcement learning
- arxiv url: http://arxiv.org/abs/2412.06938v1
- Date: Mon, 09 Dec 2024 19:26:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:36:40.039757
- Title: Optimising entanglement distribution policies under classical communication constraints assisted by reinforcement learning
- Title(参考訳): 強化学習の支援による古典的通信制約下における絡み合い分布の最適化
- Authors: Jan Li, Tim Coopmans, Patrick Emonts, Kenneth Goodenough, Jordi Tura, Evert van Nieuwenburg,
- Abstract要約: 量子リピータは遠距離における絡み合いの効果的な分布において重要な役割を果たす。
ノードが近隣のノードとのみ協調する,固定されたローカルポリシ,予測スワップ・アサップ(swap-asap)ポリシを導入し,評価する。
本研究は,古典的コミュニケーション効果が重要である現実的な場合において,不完全な情報を伴う政策を考えることのメリットを示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Quantum repeaters play a crucial role in the effective distribution of entanglement over long distances. The nearest-future type of quantum repeater requires two operations: entanglement generation across neighbouring repeaters and entanglement swapping to promote short-range entanglement to long-range. For many hardware setups, these actions are probabilistic, leading to longer distribution times and incurred errors. Significant efforts have been vested in finding the optimal entanglement-distribution policy, i.e. the protocol specifying when a network node needs to generate or swap entanglement, such that the expected time to distribute long-distance entanglement is minimal. This problem is even more intricate in more realistic scenarios, especially when classical communication delays are taken into account. In this work, we formulate our problem as a Markov decision problem and use reinforcement learning (RL) to optimise over centralised strategies, where one designated node instructs other nodes which actions to perform. Contrary to most RL models, ours can be readily interpreted. Additionally, we introduce and evaluate a fixed local policy, the `predictive swap-asap' policy, where nodes only coordinate with nearest neighbours. Compared to the straightforward generalization of the common swap-asap policy to the scenario with classical communication effects, the `wait-for-broadcast swap-asap' policy, both of the aforementioned entanglement-delivery policies are faster at high success probabilities. Our work showcases the merit of considering policies acting with incomplete information in the realistic case when classical communication effects are significant.
- Abstract(参考訳): 量子リピータは遠距離における絡み合いの効果的な分布において重要な役割を果たす。
近未来型量子リピータは、隣接するリピータ間の絡み合い生成と、短距離の絡み合いを長距離に促進するために絡み合い交換という2つの操作を必要とする。
多くのハードウェアセットアップでは、これらのアクションは確率的であり、分散時間が長くなりエラーが発生する。
ネットワークノードがエンタングルを生成またはスワップする必要があるかを指定するプロトコルである、長距離エンタングルを配布する期待時間を最小限に抑えるため、最適なエンタングルメント・ディストリビューションポリシーを見つけるための重要な努力がなされている。
この問題は、特に古典的な通信遅延を考慮すると、より現実的なシナリオにおいてさらに複雑になる。
本研究では、マルコフ決定問題として問題を定式化し、強化学習(RL)を用いて中央集権戦略を最適化する。
ほとんどのRLモデルとは対照的に、我々のモデルは容易に解釈できる。
さらに,ノードが近隣のノードとのみ協調する,固定されたローカルポリシーである「予測スワップ・アサップ」も導入し,評価する。
一般的なスワップ・アサップ・ポリシーを古典的なコミュニケーション効果のシナリオと直接的に一般化するのに対し、前述のアンタングル・アサップ・アサップ・ポリシーはどちらも高い成功確率で高速である。
本研究は,古典的コミュニケーション効果が重要である現実的な場合において,不完全な情報を伴う政策を考えることのメリットを示す。
関連論文リスト
- Optimized Generation of Entanglement by Real-Time Ordering of Swapping Operations [4.152766500389854]
量子ネットワークにおける長距離量子通信は、非閉鎖定理によって課される制約のために大きな課題に直面している。
既存のほとんどの量子通信プロトコルは、絡み合い対(EP)の事前分布に依存している。
本稿では,現行のネットワークに基づいて,各段階において最適な経路および/または絡み込みスワッピング動作を反復的に決定するグリーディアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-13T06:43:11Z) - Collaborative Ground-Space Communications via Evolutionary Multi-objective Deep Reinforcement Learning [113.48727062141764]
地中直接通信を実現するために,分散コラボレーティブビームフォーミング(DCB)に基づくアップリンク通信パラダイムを提案する。
DCBは、低軌道(LEO)衛星と効率的な直接接続を確立することができない端末を分散アンテナとして扱う。
本稿では,進化的多目的深層強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-11T03:13:02Z) - Off-Policy Evaluation for Large Action Spaces via Policy Convolution [60.6953713877886]
ポリシ・コンボリューション(Policy Convolution)のファミリーは、アクション内の潜在構造を使用して、ログとターゲットポリシを戦略的に畳み込みます。
合成およびベンチマークデータセットの実験では、PCを使用する場合の平均二乗誤差(MSE)が顕著に改善されている。
論文 参考訳(メタデータ) (2023-10-24T01:00:01Z) - Fast and reliable entanglement distribution with quantum repeaters: principles for improving protocols using reinforcement learning [0.6249768559720122]
将来の量子技術は、空間的に分離されたノード間の共有絡み合いのネットワークに依存する。
ノードの線形連鎖に沿った絡み合い分布のための改良されたプロトコル/ポリティシを提供する。
論文 参考訳(メタデータ) (2023-03-01T19:05:32Z) - Faster Last-iterate Convergence of Policy Optimization in Zero-Sum
Markov Games [63.60117916422867]
本稿では,対戦型マルチエージェントRLの最も基本的な設定,すなわち2プレーヤゼロサムマルコフゲームに焦点を当てる。
両エージェントから対称更新を施した単一ループポリシー最適化手法を提案し,この手法はエントロピー規則化楽観的乗算重み更新法(OMWU)によって更新される。
我々の収束結果は、最もよく知られた複雑性を改善し、競合するマルコフゲームにおけるポリシー最適化をよりよく理解する。
論文 参考訳(メタデータ) (2022-10-03T16:05:43Z) - Optimal entanglement distribution policies in homogeneous repeater
chains with cutoffs [1.9021200954913475]
本稿では,量子メモリを用いた量子リピータの連鎖を用いた二部構造エンタングルメント分布の限界について検討する。
エンド・ツー・エンドの絡み合いを生み出すための期待時間を最小限に抑えるグローバルな知識ポリシーを見つけます。
論文 参考訳(メタデータ) (2022-07-13T22:25:21Z) - Adaptive advantage in entanglement-assisted communications [0.0]
絡み合い支援型古典的通信プロトコルは通常、2つの連続するラウンドで構成される。
適応プロトコルがランダムアクセス符号の成功確率を向上させることを示す。
量子通信を含むシナリオへのこれらのアイデアの拡張について、簡単に論じる。
論文 参考訳(メタデータ) (2022-03-10T13:54:02Z) - Distributed Adaptive Learning Under Communication Constraints [54.22472738551687]
本研究では,コミュニケーション制約下での運用を目的とした適応型分散学習戦略について検討する。
我々は,ストリーミングデータの連続的な観察から,オンライン最適化問題を解決しなければならないエージェントのネットワークを考える。
論文 参考訳(メタデータ) (2021-12-03T19:23:48Z) - Quantum communication complexity beyond Bell nonlocality [87.70068711362255]
効率的な分散コンピューティングは、リソース要求タスクを解決するためのスケーラブルな戦略を提供する。
量子リソースはこのタスクに適しており、古典的手法よりも優れた明確な戦略を提供する。
我々は,ベルのような不等式に,新たなコミュニケーション複雑性タスクのクラスを関連付けることができることを証明した。
論文 参考訳(メタデータ) (2021-06-11T18:00:09Z) - Improved analytical bounds on delivery times of long-distance
entanglement [0.0]
我々は, 絡み合い分布プロトコルの平均および完了時刻の定量値について, 解析的境界を改良した。
そのようなプロトコルの標準的な例として、ネストされた量子リピータスキームがあり、これは有意な絡み合いの生成と絡み合いのスワップからなる。
論文 参考訳(メタデータ) (2021-03-21T18:14:56Z) - Decentralized MCTS via Learned Teammate Models [89.24858306636816]
本稿では,モンテカルロ木探索に基づくトレーニング可能なオンライン分散計画アルゴリズムを提案する。
深層学習と畳み込みニューラルネットワークを用いて正確なポリシー近似を作成可能であることを示す。
論文 参考訳(メタデータ) (2020-03-19T13:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。