論文の概要: Policies for multiplexed quantum repeaters: theory and practical
performance analysis
- arxiv url: http://arxiv.org/abs/2401.13168v1
- Date: Wed, 24 Jan 2024 01:13:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-25 15:56:07.534208
- Title: Policies for multiplexed quantum repeaters: theory and practical
performance analysis
- Title(参考訳): 多重量子リピータのポリシー:理論と実用的性能解析
- Authors: Stav Haldar, Pratik J. Barge, Xiang Cheng, Kai-Chi Chang, Brian T.
Kirby, Sumeet Khatri, Chee Wei Wong, Hwang Lee
- Abstract要約: 我々は、よく知られたスワップ・アズ・ア・スワップ・アズ・アズ・ア・サブル(swap-asap)ポリシーを多重化量子リピータ・チェーンに適用する2つのポリシーを導入する。
通常、完全に局所的なスワップ・アサップ・ポリシーとは異なり、これらのポリシーは準局所的であり、連鎖に沿ったリピータの状態を効果的に活用する。
- 参考スコア(独自算出の注目度): 5.637988606670931
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Future quantum networks will have nodes equipped with multiple quantum
memories, providing the possibility to perform multiplexing and distillation
strategies in order to increase fidelities and reduce waiting times for
end-to-end entanglement distribution. In this paper, we introduce two policies
that adapt the well-known swap-as-soon-as-possible (swap-asap) policy to
multiplexed quantum repeater chains. Unlike the usual, fully local swap-asap
policy, these policies are ``quasi-local", making effective use of knowledge of
the states of the repeaters along the chain to optimize waiting times and
end-to-end fidelities. Our policies also make use of entanglement distillation.
We demonstrate via simulations one of our key findings, which is that these
policies can outperform the well-known and widely studied nested purification
and doubling swapping policy in practically relevant parameter regimes. Our
work also provides the tools to carefully examine the role of entanglement
distillation. We identify the parameter regimes in which performing
distillation makes sense and is useful. In these regimes, we also address the
question: ``Should we distill before swapping, or vice versa?" We thus
formalize the trade-off between the advantages of adding distillation
capabilities to quantum networks against their technological and practical
challenges. Finally, to provide further practical guidance, we propose an
experimental implementation of a multiplexing-based linear network, and
experimentally demonstrate the key element, a high-dimensional biphoton
frequency comb (BFC). We then evaluate the anticipated performance of our
multiplexing-based policies in such a real-world network through simulation
results for two concrete memory platforms, namely rare-earth ions and diamond
vacancies.
- Abstract(参考訳): 将来の量子ネットワークは、複数の量子メモリを備えたノードを持ち、フィデリティを高め、エンドツーエンドのエンタングルメント分布の待ち時間を短縮するために多重化および蒸留戦略を実行することができる。
本稿では,よく知られたswap-asoon-as-possible(swap-asap)ポリシーを多重化量子リピータチェーンに適用する2つのポリシーを提案する。
Unlike the usual, fully local swap-asap policy, these policies are ``quasi-local", making effective use of knowledge of the states of the repeaters along the chain to optimize waiting times and end-to-end fidelities. Our policies also make use of entanglement distillation. We demonstrate via simulations one of our key findings, which is that these policies can outperform the well-known and widely studied nested purification and doubling swapping policy in practically relevant parameter regimes. Our work also provides the tools to carefully examine the role of entanglement distillation. We identify the parameter regimes in which performing distillation makes sense and is useful. In these regimes, we also address the question: ``Should we distill before swapping, or vice versa?"
そこで我々は,量子ネットワークに蒸留能力を加える利点と,その技術的,実用的課題とのトレードオフを定式化する。
最後に、さらに実用的なガイダンスを提供するために、多重化に基づく線形ネットワークの実験実装を提案し、その鍵要素である高次元複光子周波数コム(BFC)を実験的に実証する。
そこで我々は,2つの具体的メモリプラットフォーム,レアアースイオンとダイヤモンド空洞のシミュレーション結果を用いて,そのような実世界のネットワークにおける多重化ポリシーの期待性能を評価する。
関連論文リスト
- From $r$ to $Q^*$: Your Language Model is Secretly a Q-Function [50.812404038684505]
我々は,ベルマン方程式を満たす一般逆Q-ラーニングアルゴリズムとして,トークンレベルMDPのDPOを導出できることを示す。
本稿では,マルチターン対話における情報活用,推論,エージェント応用,マルチモデルシステムのエンドツーエンドトレーニングなど,我々の研究の応用について論じる。
論文 参考訳(メタデータ) (2024-04-18T17:37:02Z) - Action-Quantized Offline Reinforcement Learning for Robotic Skill
Learning [68.16998247593209]
オフライン強化学習(RL)パラダイムは、静的な行動データセットを、データを収集したポリシーよりも優れたパフォーマンスのポリシーに変換するためのレシピを提供する。
本稿では,アクション量子化のための適応型スキームを提案する。
IQL,CQL,BRACといった最先端のオフラインRL手法が,提案手法と組み合わせることで,ベンチマークのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T06:07:10Z) - Fast and reliable entanglement distribution with quantum repeaters: principles for improving protocols using reinforcement learning [0.6249768559720122]
将来の量子技術は、空間的に分離されたノード間の共有絡み合いのネットワークに依存する。
ノードの線形連鎖に沿った絡み合い分布のための改良されたプロトコル/ポリティシを提供する。
論文 参考訳(メタデータ) (2023-03-01T19:05:32Z) - Diversity Through Exclusion (DTE): Niche Identification for
Reinforcement Learning through Value-Decomposition [63.67574523750839]
本稿では,多変量ニッチ環境におけるベースライン深度Q-ラーニングアルゴリズムよりも優れた汎用強化学習(RL)アルゴリズムを提案する。
この方法で訓練されたエージェントは、貧弱だが魅力ある局所最適化から逃れて、より高い価値戦略の発見を困難にすることを示します。
論文 参考訳(メタデータ) (2023-02-02T16:00:19Z) - Symbolic Distillation for Learned TCP Congestion Control [70.27367981153299]
TCP渋滞制御は、深層強化学習(RL)アプローチで大きな成功を収めた。
ブラックボックスポリシーは解釈可能性と信頼性に欠けており、しばしば従来のTCPデータパスの外で運用する必要がある。
本稿では,まず深部RLエージェントを訓練し,次にNNポリシーをホワイトボックスの軽量なルールに蒸留する,両世界の長所を達成するための新しい2段階のソリューションを提案する。
論文 参考訳(メタデータ) (2022-10-24T00:58:16Z) - Optimal entanglement distribution policies in homogeneous repeater
chains with cutoffs [1.9021200954913475]
本稿では,量子メモリを用いた量子リピータの連鎖を用いた二部構造エンタングルメント分布の限界について検討する。
エンド・ツー・エンドの絡み合いを生み出すための期待時間を最小限に抑えるグローバルな知識ポリシーを見つけます。
論文 参考訳(メタデータ) (2022-07-13T22:25:21Z) - Exact rate analysis for quantum repeaters with imperfect memories and
entanglement swapping as soon as possible [0.0]
本稿では,線形量子リピータチェーンを用いた秘密鍵の正確なレート解析について述べる。
メモリカットオフ、多重化、初期状態、ゲート忠実度交換などの追加ツールやパラメータについて検討する。
論文 参考訳(メタデータ) (2022-03-19T12:55:56Z) - Rate limits in quantum networks with lossy repeaters [0.6299766708197883]
我々は、リピータステーションにおける損失の有無が量子通信の最大到達率にどのように影響するかを定量化する。
線形連鎖のシナリオでは, 中継局数を増やすことで, 単一局の損失にのみ依存する量の最大化を達成できないことを示す。
論文 参考訳(メタデータ) (2021-10-19T18:00:01Z) - Offline Reinforcement Learning with Implicit Q-Learning [85.62618088890787]
現行のオフライン強化学習手法では、トレーニング中に見つからない行動の価値を問い合わせて、ポリシーを改善する必要がある。
本稿では,データセット外の動作を評価する必要のないオフラインRL手法を提案する。
この方法により、学習したポリシーは、一般化によってデータの最良の振る舞いを大幅に改善することができる。
論文 参考訳(メタデータ) (2021-10-12T17:05:05Z) - Overcoming the repeaterless bound in continuous-variable quantum
communication without quantum memories [0.0]
量子通信の大きな問題の1つは、長距離で高いレートを達成する方法である。
我々は,連続変数プロトコルを導入し,連続的なリピータ・バウンダリや単一リピータ・バウンダリのように拡張する。
提案手法は,量子メモリを用いて,より長いリピータチェーンに拡張可能であることを示す。
論文 参考訳(メタデータ) (2021-05-08T04:02:17Z) - Conservative Q-Learning for Offline Reinforcement Learning [106.05582605650932]
CQLは既存のオフラインRLメソッドよりも大幅に優れており、多くの場合、ファイナルリターンの2~5倍高いポリシを学習しています。
理論的には、CQLは現在のポリシーの価値の低いバウンダリを生成し、理論的改善保証を伴う政策学習手順に組み込むことができることを示す。
論文 参考訳(メタデータ) (2020-06-08T17:53:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。