論文の概要: Entanglement Purification in Quantum Networks: Guaranteed Improvement and Optimal Time
- arxiv url: http://arxiv.org/abs/2505.02286v1
- Date: Sun, 04 May 2025 22:52:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.530895
- Title: Entanglement Purification in Quantum Networks: Guaranteed Improvement and Optimal Time
- Title(参考訳): 量子ネットワークにおける絡み合いの浄化:改善と最適時間
- Authors: Allen Zang, Xin-An Chen, Eric Chitambar, Martin Suchara, Tian Zhong,
- Abstract要約: これまでに様々なシナリオにおいて最適であることが示されているCNOTベースの再発EPPの改善と最適時間について検討した。
本研究は,実シナリオにおけるETP性能の理解を深め,ETPを統合する量子ネットワークの最適化に関する洞察を提供する。
- 参考スコア(独自算出の注目度): 3.3624271954785865
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While the concept of entanglement purification protocols (EPPs) is straightforward, the integration of EPPs in network architectures requires careful performance evaluations and optimizations that take into account realistic conditions and imperfections, especially probabilistic entanglement generation and quantum memory decoherence. It is important to understand what is guaranteed to be improved from successful EPP with arbitrary non-identical input, which determines whether we want to perform the EPP at all. When successful EPP can offer improvement, the time to perform the EPP should also be optimized to maximize the improvement. In this work, we study the guaranteed improvement and optimal time for the CNOT-based recurrence EPP, previously shown to be optimal in various scenarios. We firstly prove guaranteed improvement for multiple figures of merit, including fidelity and several entanglement measures when compared to practical baselines as functions of input states. However, it is noteworthy that the guaranteed improvement we prove does not imply the universality of the EPP as introduced in arXiv:2407.21760. Then we prove robust, parameter-independent optimal time for typical error models and figures of merit. We further explore memory decoherence described by continuous-time Pauli channels, and demonstrate the phenomenon of optimal time transition when the memory decoherence error pattern changes. Our work deepens the understanding of EPP performance in realistic scenarios and offers insights into optimizing quantum networks that integrate EPPs.
- Abstract(参考訳): エンタングルメント浄化プロトコル(EPP)の概念は単純であるが、ネットワークアーキテクチャにおけるEPPの統合には、現実的な条件や不完全性、特に確率的エンタングルメント生成と量子メモリデコヒーレンスを考慮に入れた注意深い性能評価と最適化が必要である。
任意の非ID入力でEPPを成功させて改善することが保証されるものを理解することが重要であり、EPPを全く実行したいかどうかを判断する。
EPPを成功させることで改善が得られれば、改善を最大化するためにEPPの実行時間も最適化されるべきである。
本研究では,CNOTをベースとした再発性EPPの改善と最適時間について検討した。
まず,入力状態の関数としての実用的ベースラインと比較して,忠実度や絡み合いなど,複数のメリットの指標に対する保証された改善を証明した。
しかしながら、我々が証明した保証された改善は、arXiv:2407.21760 で導入された EPP の普遍性を意味するものではないことは注目すべきである。
そして、典型的なエラーモデルとメリットの数値に対して、頑健でパラメータ非依存の最適時間を証明する。
さらに、連続時間パウリチャンネルで記述されたメモリデコヒーレンスについて検討し、メモリデコヒーレンスエラーパターンが変化した場合に最適な時間遷移現象を示す。
本研究は,実シナリオにおけるETP性能の理解を深め,ETPを統合する量子ネットワークの最適化に関する洞察を提供する。
関連論文リスト
- Forecast-PEFT: Parameter-Efficient Fine-Tuning for Pre-trained Motion Forecasting Models [68.23649978697027]
Forecast-PEFTは、モデルのパラメータの大部分を凍結し、新しく導入されたプロンプトとアダプタの調整に集中する微調整戦略である。
実験の結果,Forecast-PEFTは動作予測タスクにおいて従来のフルチューニング手法よりも優れていた。
Forecast-FTは予測性能をさらに改善し、従来のベースライン法よりも最大9.6%向上した。
論文 参考訳(メタデータ) (2024-07-28T19:18:59Z) - FADAS: Towards Federated Adaptive Asynchronous Optimization [56.09666452175333]
フェデレートラーニング(FL)は、プライバシ保護機械学習のトレーニングパラダイムとして広く採用されている。
本稿では、非同期更新を適応的フェデレーション最適化と証明可能な保証に組み込む新しい手法であるFADASについて紹介する。
提案アルゴリズムの収束率を厳格に確立し,FADASが他の非同期FLベースラインよりも優れていることを示す実験結果を得た。
論文 参考訳(メタデータ) (2024-07-25T20:02:57Z) - PAC-Bayes Generalization Certificates for Learned Inductive Conformal
Prediction [27.434939269672288]
我々はPAC-Bayes理論を用いて、集合値予測器のカバレッジと効率の一般化境界を求める。
我々はこれらの理論結果を活用し、キャリブレーションデータを用いてモデルのパラメータやスコア関数を微調整する実用的なアルゴリズムを提供する。
我々は, 回帰および分類タスクに対するアプローチの評価を行い, ICP 上の Hoeffding bound-based PAC 保証を用いて, 基準値の調整を行った。
論文 参考訳(メタデータ) (2023-12-07T19:40:44Z) - c-TPE: Tree-structured Parzen Estimator with Inequality Constraints for
Expensive Hyperparameter Optimization [45.67326752241075]
本稿では,この制約に対処するための制約付きTPE (c-TPE) を提案する。
提案するエクステンションは,既存の取得関数とオリジナルのTPEの単純な組み合わせに留まらず,パフォーマンスの低下の原因となる問題に対処する修正も含んでいる。
実験では,C-TPEは,不等式制約のある81のHPOに対して,統計的に有意な既存の手法の中で,最高の平均ランク性能を示すことを示した。
論文 参考訳(メタデータ) (2022-11-26T00:25:11Z) - Scalable PAC-Bayesian Meta-Learning via the PAC-Optimal Hyper-Posterior:
From Theory to Practice [54.03076395748459]
メタラーニング文学の中心的な疑問は、目に見えないタスクへの一般化を保証するために、いかに正規化するかである。
本稿では,Rothfussらによって最初に導かれたメタラーニングの一般化について述べる。
PAC-Bayesian per-task 学習境界におけるメタラーニングの条件と程度について,理論的解析および実証事例研究を行った。
論文 参考訳(メタデータ) (2022-11-14T08:51:04Z) - Sequential Information Design: Markov Persuasion Process and Its
Efficient Reinforcement Learning [156.5667417159582]
本稿では,逐次情報設計の新たなモデル,すなわちマルコフ説得過程(MPP)を提案する。
MPPのプランニングは、ミオピックレシーバーに同時に説得されるシグナルポリシーを見つけ、送信者の最適な長期累積ユーティリティを誘導する、というユニークな課題に直面している。
我々は,楽観主義と悲観主義の両原理の新たな組み合わせを特徴とする,実証可能な効率のよい非回帰学習アルゴリズム,Optimism-Pessimism Principle for Persuasion Process (OP4) を設計する。
論文 参考訳(メタデータ) (2022-02-22T05:41:43Z) - You May Not Need Ratio Clipping in PPO [117.03368180633463]
Proximal Policy Optimization (PPO) 法は、複数のミニバッチ最適化エポックを1組のサンプルデータで反復的に実行することでポリシーを学習する。
比率クリッピングPPOは、ターゲットポリシーとサンプル収集に使用されるポリシーの確率比をクリップする一般的な変種である。
本論文では, この比クリッピングが有効に結合できないため, 良好な選択ではないことを示す。
ESPOは、多くのワーカーによる分散トレーニングに簡単にスケールアップでき、パフォーマンスも高いことを示す。
論文 参考訳(メタデータ) (2022-01-31T20:26:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。