論文の概要: Generalised All-Optical Cat Correction
- arxiv url: http://arxiv.org/abs/2603.03263v1
- Date: Tue, 03 Mar 2026 18:53:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.937551
- Title: Generalised All-Optical Cat Correction
- Title(参考訳): 一般化された全光猫矯正
- Authors: Ari John Boon, Olivier Landon-Cardinal, Nicolás Quesada,
- Abstract要約: 状態の変形を補正するための確率的反復スキームを導入する。
ターゲットチャネルの忠実度が1テキストのdB$損失のチャネル上で99.9%の場合には、3階の猫コードは1階の猫の7倍のテレコリクション・イテレーションを必要とする。
- 参考スコア(独自算出の注目度): 0.23624125155742057
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We have generalised an all-optical telecorrection protocol for the higher orders of the cat code, and show that with these higher orders we can achieve target performance at substantially reduced iteration counts at the cost of a higher mean photon-number. We also introduce a probabilistic scheme for correcting deformation of the state, which highlights two interesting abilities of telecorrection: to encode new sets of transformations, and to change the basis of the code. We find that for a target channel fidelity of $99.9\%$ over a channel with $1\text{ dB}$ of loss, a third-order cat code requires $70$ times fewer telecorrection iterations than a first-order one, at a cost of a $3.6$-fold increase in mean photon-number.
- Abstract(参考訳): 我々は,猫符号の高次順序に対する全光テレコリクションプロトコルを一般化し,これらの高次順序で,平均光子数よりも高いコストで,繰り返し回数を大幅に削減して目標性能を達成できることを実証した。
我々はまた、状態の変形を補正する確率的スキームを導入し、新しい変換セットを符号化し、コードの基本を変更するという、テレコリクションの興味深い2つの能力を強調した。
目標チャネルの忠実度が$99.9\%のチャネルに1\text{ dB}$の損失がある場合、3階の猫コードは1階の猫よりも70ドル安いテレコリクション・イテレーションを必要とし、平均光子数の平均値が3.6ドル上昇する。
関連論文リスト
- REOrdering Patches Improves Vision Models [58.8295093799148]
パッチ順序がそのような設定におけるモデル性能に大きく影響していることが示される。
本稿では,タスク最適パッチ順序を見つけるためのフレームワークであるREOrderを提案する。
Re Orderは、ImageNet-1K上の行マジョールの順序を最大3.01%改善し、世界の関数マップを13.35%改善した。
論文 参考訳(メタデータ) (2025-05-29T17:59:30Z) - Enhancing dissipative cat qubit protection by squeezing [22.42362976537419]
キャット量子ビットは、量子エラー訂正が組み込まれているため、量子プロセッサにとって有望なアーキテクチャである。
通常の猫に比べて160倍のビットフリップ時間の改善が見られた。
また、Z$-gate不忠実度を2倍に下げることを示した。
論文 参考訳(メタデータ) (2025-02-11T19:01:05Z) - Convergence Rate Analysis of LION [54.28350823319057]
LION は、勾配カルシュ=クーン=T (sqrtdK-)$で測定された $cal(sqrtdK-)$ の反復を収束する。
従来のSGDと比較して,LIONは損失が小さく,性能も高いことを示す。
論文 参考訳(メタデータ) (2024-11-12T11:30:53Z) - Error suppression in multicomponent cat codes with photon subtraction
and teleamplification [0.0]
本研究では,4成分のネココードに対するマルチフォトンサブトラクションと,検出時のエラーや環境損失を効果的に抑制するためのテレアンプリフィケーションの併用を提案する。
リアルな光子サブトラクションとテレアンプリフィケーションベースのスキームでは、最悪のケースの忠実度は9,3.5%$(82%$とノイズのみのテレアンプリフィケーション)で、最低成功確率は3.42%$である。
これは、ノイズの多い中間規模量子(NISQ)時代の量子情報処理において、大きな受動的損失と戦うための有望な標準となる。
論文 参考訳(メタデータ) (2024-01-09T09:07:01Z) - Autoparametric resonance extending the bit-flip time of a cat qubit up to 0.3 s [0.0]
キャットキュービットは量子誤り訂正への有望な経路を提供する。
我々は、高調波モードの光子対を環境の単一光子と交換するために、消散を利用する。
オートキャットキュービットのビットフリップ誤差は、位相フリップ誤差にわずかに影響を及ぼすことなく、0.3秒までの特性時間で防止されることを示す。
論文 参考訳(メタデータ) (2023-07-13T14:01:32Z) - Soft Augmentation for Image Classification [68.71067594724663]
本稿では,変分変換による拡張の一般化とソフト拡張を提案する。
ソフトターゲットは、より攻撃的なデータ拡張を可能にすることを示す。
また,ソフト拡張が自己教師付き分類タスクに一般化されることも示している。
論文 参考訳(メタデータ) (2022-11-09T01:04:06Z) - Quantum error correction with dissipatively stabilized squeezed cat
qubits [68.8204255655161]
本研究では, 散逸安定化された猫量子ビットの誤差補正性能について検討し, 解析を行った。
その結果, ビットフリップ誤り率の適度なスキューズでは, 位相フリップ率を一定に保ちながら, 通常のキャットキュービットに比べて有意に低下することがわかった。
論文 参考訳(メタデータ) (2022-10-24T16:02:20Z) - Zero-Added-Loss Entangled Photon Multiplexing for Ground- and
Space-Based Quantum Networks [2.4075366828302482]
準決定論的光子対源に基づく量子ネットワークにおける光絡み分布の計算法を提案する。
我々のアーキテクチャは、近い将来、グローバルスケールの量子ネットワークを実現するための青写真を提供する。
論文 参考訳(メタデータ) (2022-06-08T04:38:39Z) - Ideal Quantum Tele-amplification up to a Selected Energy Cut-off using
Linear Optics [0.0]
我々は、理想的な量子テレ増幅を$nmathrmth$Fock状態まで実装できる線形光学技術を導入する。
このプロトコルは, エンタングルメント分布と蒸留のための損失耐性量子リレーとしても利用できることを示す。
論文 参考訳(メタデータ) (2021-10-07T03:53:47Z) - Compressing 1D Time-Channel Separable Convolutions using Sparse Random
Ternary Matrices [65.4388266814055]
1次元時間チャネル分離可能な畳み込みの1x1-畳み込みを、定数でスパースな乱数三元行列で-1,0,+1$の重みで置き換える。
Google Speech Commands v1のコマンド認識のために、最新の精度を同じネットワークサイズで97.21%$から97.41%$に改善します。
librispeech上での音声認識では、トレーニングすべき重みの数は半分になり、浮動小数点ベースラインの単語誤り率の約1%を犠牲にします。
論文 参考訳(メタデータ) (2021-03-31T15:09:20Z) - Funnel-Transformer: Filtering out Sequential Redundancy for Efficient
Language Processing [112.2208052057002]
本稿では,隠れ状態の列を短く圧縮するFunnel-Transformerを提案する。
Funnel-TransformerはFLOPに匹敵する数が少ないため、様々なシーケンスレベルの予測タスクにおいて標準のTransformerよりも優れている。
論文 参考訳(メタデータ) (2020-06-05T05:16:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。