論文の概要: Reducing classical communication costs in multiplexed quantum repeaters using hardware-aware quasi-local policies
- arxiv url: http://arxiv.org/abs/2401.13168v2
- Date: Thu, 9 May 2024 23:40:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-13 20:07:31.320943
- Title: Reducing classical communication costs in multiplexed quantum repeaters using hardware-aware quasi-local policies
- Title(参考訳): ハードウェア対応準局所ポリシーを用いた多重量子リピータにおける古典的通信コストの低減
- Authors: Stav Haldar, Pratik J. Barge, Xiang Cheng, Kai-Chi Chang, Brian T. Kirby, Sumeet Khatri, Chee Wei Wong, Hwang Lee,
- Abstract要約: 多重量子リピータチェインに対するテクスティクアシ局所ポリシーを導入する。
準局所的なポリシーでは、ノードはリピータ連鎖の状態に関する知識を増大させてきたが、必ずしも完全なグローバルな知識ではない。
我々の政策はまた、ネストされた浄化と2倍のスワップ政策を良く知られ、広く研究されている。
- 参考スコア(独自算出の注目度): 5.405186125924916
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Future quantum networks will have nodes equipped with multiple quantum memories, allowing for multiplexing and entanglement distillation strategies in order to increase fidelities and reduce waiting times for end-to-end entanglement distribution. In this work, we introduce \textit{quasi-local} policies for multiplexed quantum repeater chains. In fully-local policies, nodes make decisions based only on knowledge of their own states. In our quasi-local policies, nodes have increased knowledge of the state of the repeater chain, but not necessarily full, global knowledge. Our policies exploit the observation that for most decisions the nodes have to make, they only need to have information about the connected region of the chain they belong to, and not the entire chain. In this way, we not only obtain improved performance over local policies, but we reduce the classical communication (CC) costs inherent to global-knowledge policies. Our policies also outperform the well-known and widely studied nested purification and doubling swapping policy in practically relevant parameter regimes. We also carefully examine the role of entanglement distillation. Via analytical and numerical results, we identify the parameter regimes in which distillation makes sense and is useful. In these regimes, we also address the question: "Should we distill before swapping, or vice versa?" Finally, to provide further practical guidance, we propose an experimental implementation of a multiplexing-based repeater chain, and experimentally demonstrate the key element, a high-dimensional biphoton frequency comb. We then evaluate the anticipated performance of our multiplexing-based policies in such a real-world network through simulation results for two concrete memory platforms, namely rare-earth ions and diamond vacancies.
- Abstract(参考訳): 将来の量子ネットワークは、複数の量子メモリを備えたノードを持ち、多重化と絡み合いの蒸留戦略により、忠実度を高め、エンドツーエンドの絡み合い分布の待ち時間を短縮する。
本研究では、多重化量子リピータ連鎖に対するtextit{quasi-local} ポリシーを導入する。
完全にローカルなポリシーでは、ノードは自身の状態の知識のみに基づいて決定する。
準局所的なポリシでは、ノードはリレーダチェーンの状態に関する知識を増やしていますが、必ずしも完全なグローバルな知識ではありません。
当社のポリシでは,ノードが行わなければならないほとんどの決定に対して,チェーン全体ではなく,チェーンの連結領域に関する情報のみを保持する必要がある,という認識を活用しています。
このように、ローカルポリシーよりも優れたパフォーマンスを得るだけでなく、グローバル知識ポリシーに固有の古典的コミュニケーション(CC)コストを削減する。
我々の政策はまた、ネストされた浄化と2倍のスワップ政策を実際に関連するパラメーター体制において、よく知られ、広く研究されている。
また, エンタングルメント蒸留の役割についても慎重に検討した。
分析的および数値的な結果から,蒸留が意味を持ち有用であるパラメータ構造を同定する。
これらの体制では、「交換する前に蒸留するか、あるいはその逆か?」という問題にも対処する。
最後に、さらに実用的なガイダンスを提供するために、多重化に基づくリピータチェーンの実験実装を提案し、その鍵要素である高次元バイフォトン周波数コムを実験的に実証する。
そこで我々は,2つの具体的メモリプラットフォーム,レアアースイオンとダイヤモンド空洞のシミュレーション結果を用いて,そのような実世界のネットワークにおける多重化ポリシーの期待性能を評価する。
関連論文リスト
- From $r$ to $Q^*$: Your Language Model is Secretly a Q-Function [50.812404038684505]
我々は,ベルマン方程式を満たす一般逆Q-ラーニングアルゴリズムとして,トークンレベルMDPのDPOを導出できることを示す。
本稿では,マルチターン対話における情報活用,推論,エージェント応用,マルチモデルシステムのエンドツーエンドトレーニングなど,我々の研究の応用について論じる。
論文 参考訳(メタデータ) (2024-04-18T17:37:02Z) - Action-Quantized Offline Reinforcement Learning for Robotic Skill
Learning [68.16998247593209]
オフライン強化学習(RL)パラダイムは、静的な行動データセットを、データを収集したポリシーよりも優れたパフォーマンスのポリシーに変換するためのレシピを提供する。
本稿では,アクション量子化のための適応型スキームを提案する。
IQL,CQL,BRACといった最先端のオフラインRL手法が,提案手法と組み合わせることで,ベンチマークのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T06:07:10Z) - Fast and reliable entanglement distribution with quantum repeaters: principles for improving protocols using reinforcement learning [0.6249768559720122]
将来の量子技術は、空間的に分離されたノード間の共有絡み合いのネットワークに依存する。
ノードの線形連鎖に沿った絡み合い分布のための改良されたプロトコル/ポリティシを提供する。
論文 参考訳(メタデータ) (2023-03-01T19:05:32Z) - Diversity Through Exclusion (DTE): Niche Identification for
Reinforcement Learning through Value-Decomposition [63.67574523750839]
本稿では,多変量ニッチ環境におけるベースライン深度Q-ラーニングアルゴリズムよりも優れた汎用強化学習(RL)アルゴリズムを提案する。
この方法で訓練されたエージェントは、貧弱だが魅力ある局所最適化から逃れて、より高い価値戦略の発見を困難にすることを示します。
論文 参考訳(メタデータ) (2023-02-02T16:00:19Z) - Symbolic Distillation for Learned TCP Congestion Control [70.27367981153299]
TCP渋滞制御は、深層強化学習(RL)アプローチで大きな成功を収めた。
ブラックボックスポリシーは解釈可能性と信頼性に欠けており、しばしば従来のTCPデータパスの外で運用する必要がある。
本稿では,まず深部RLエージェントを訓練し,次にNNポリシーをホワイトボックスの軽量なルールに蒸留する,両世界の長所を達成するための新しい2段階のソリューションを提案する。
論文 参考訳(メタデータ) (2022-10-24T00:58:16Z) - Optimal entanglement distribution policies in homogeneous repeater
chains with cutoffs [1.9021200954913475]
本稿では,量子メモリを用いた量子リピータの連鎖を用いた二部構造エンタングルメント分布の限界について検討する。
エンド・ツー・エンドの絡み合いを生み出すための期待時間を最小限に抑えるグローバルな知識ポリシーを見つけます。
論文 参考訳(メタデータ) (2022-07-13T22:25:21Z) - Exact rate analysis for quantum repeaters with imperfect memories and
entanglement swapping as soon as possible [0.0]
本稿では,線形量子リピータチェーンを用いた秘密鍵の正確なレート解析について述べる。
メモリカットオフ、多重化、初期状態、ゲート忠実度交換などの追加ツールやパラメータについて検討する。
論文 参考訳(メタデータ) (2022-03-19T12:55:56Z) - Rate limits in quantum networks with lossy repeaters [0.6299766708197883]
我々は、リピータステーションにおける損失の有無が量子通信の最大到達率にどのように影響するかを定量化する。
線形連鎖のシナリオでは, 中継局数を増やすことで, 単一局の損失にのみ依存する量の最大化を達成できないことを示す。
論文 参考訳(メタデータ) (2021-10-19T18:00:01Z) - Offline Reinforcement Learning with Implicit Q-Learning [85.62618088890787]
現行のオフライン強化学習手法では、トレーニング中に見つからない行動の価値を問い合わせて、ポリシーを改善する必要がある。
本稿では,データセット外の動作を評価する必要のないオフラインRL手法を提案する。
この方法により、学習したポリシーは、一般化によってデータの最良の振る舞いを大幅に改善することができる。
論文 参考訳(メタデータ) (2021-10-12T17:05:05Z) - Overcoming the repeaterless bound in continuous-variable quantum
communication without quantum memories [0.0]
量子通信の大きな問題の1つは、長距離で高いレートを達成する方法である。
我々は,連続変数プロトコルを導入し,連続的なリピータ・バウンダリや単一リピータ・バウンダリのように拡張する。
提案手法は,量子メモリを用いて,より長いリピータチェーンに拡張可能であることを示す。
論文 参考訳(メタデータ) (2021-05-08T04:02:17Z) - Conservative Q-Learning for Offline Reinforcement Learning [106.05582605650932]
CQLは既存のオフラインRLメソッドよりも大幅に優れており、多くの場合、ファイナルリターンの2~5倍高いポリシを学習しています。
理論的には、CQLは現在のポリシーの価値の低いバウンダリを生成し、理論的改善保証を伴う政策学習手順に組み込むことができることを示す。
論文 参考訳(メタデータ) (2020-06-08T17:53:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。