論文の概要: Determination of the Semion Code Threshold using Neural Decoders
- arxiv url: http://arxiv.org/abs/2002.08666v2
- Date: Sat, 12 Sep 2020 12:22:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-03 02:50:40.742372
- Title: Determination of the Semion Code Threshold using Neural Decoders
- Title(参考訳): ニューラルデコーダを用いたセミオン符号閾値の決定
- Authors: Santiago Varona and Miguel Angel Martin-Delgado
- Abstract要約: セミオン符号の誤差しきい値を計算し、同じゲージ対称性群$mathbbZ$の北エフトーリック符号を伴って計算する。
我々は、多層パーセプトロンと畳み込みニューラルネットワークという、ニューラルネットワークデコーダのほぼ最適性能を生かしている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We compute the error threshold for the semion code, the companion of the
Kitaev toric code with the same gauge symmetry group $\mathbb{Z}_2$. The
application of statistical mechanical mapping methods is highly discouraged for
the semion code, since the code is non-Pauli and non-CSS. Thus, we use machine
learning methods, taking advantage of the near-optimal performance of some
neural network decoders: multilayer perceptrons and convolutional neural
networks (CNNs). We find the values $p_{\text {eff}}=9.5\%$ for uncorrelated
bit-flip and phase-flip noise, and $p_{\text {eff}}=10.5\%$ for depolarizing
noise. We contrast these values with a similar analysis of the Kitaev toric
code on a hexagonal lattice with the same methods. For convolutional neural
networks, we use the ResNet architecture, which allows us to implement very
deep networks and results in better performance and scalability than the
multilayer perceptron approach. We analyze and compare in detail both
approaches and provide a clear argument favoring the CNN as the best suited
numerical method for the semion code.
- Abstract(参考訳): 我々は、同じゲージ対称性群 $\mathbb{z}_2$ を持つキタエフトーリック符号のコンパニオンであるセミロン符号の誤差しきい値を計算する。
統計的メカニカルマッピング法の適用は、コードが非Pauliで非CSSであるため、セミオン符号には非常に不適である。
そこで我々は、ニューラルネットワークデコーダ(多層パーセプトロンと畳み込みニューラルネットワーク(CNN))のほぼ最適性能を利用する機械学習手法を用いた。
p_{\text {eff}}=9.5\%$ は非相関ビットフリップノイズと位相フリップノイズに、$p_{\text {eff}}=10.5\%$ は非分極ノイズに等しい。
これらの値を、同じ方法で六角形格子上のキタエフトーリック符号の類似解析と対比する。
畳み込みニューラルネットワークでは、resnetアーキテクチャを使用して、非常に深いネットワークを実装し、多層パーセプトロンアプローチよりも優れたパフォーマンスとスケーラビリティを実現しています。
両者のアプローチを詳細に分析・比較し,cnnをセミオン符号の最適数値法として好む明確な議論を提供する。
関連論文リスト
- LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - Far from Perfect: Quantum Error Correction with (Hyperinvariant) Evenbly Codes [38.729065908701585]
Evenbly コードと呼ばれる新しいクビット符号のクラスを導入します。
我々の研究は、イブリー符号が実用的な量子コンピューティングアプリケーションにとって有望であることを示している。
論文 参考訳(メタデータ) (2024-07-16T17:18:13Z) - Low PAPR MIMO-OFDM Design Based on Convolutional Autoencoder [20.544993155126967]
ピーク対平均電力比(mathsfPAPR$)削減と波形設計のための新しい枠組みを提案する。
畳み込みオートコーダ(mathsfCAE$)アーキテクチャが提示される。
1つのトレーニングされたモデルが、幅広いSNRレベルにわたって、$mathsfPAPR$の削減、スペクトル設計、および$mathsfMIMO$の検出のタスクをカバーしていることを示す。
論文 参考訳(メタデータ) (2023-01-11T11:35:10Z) - Training Overparametrized Neural Networks in Sublinear Time [14.918404733024332]
ディープラーニングには膨大な計算とエネルギーのコストが伴う。
探索木の小さな部分集合として、二分ニューラルネットワークの新しいサブセットを示し、それぞれが探索木のサブセット(Ds)に対応する。
我々はこの見解が深層ネットワーク(Ds)の分析解析にさらに応用できると考えている。
論文 参考訳(メタデータ) (2022-08-09T02:29:42Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Deep ensembles in bioimage segmentation [74.01883650587321]
本研究では,畳み込みニューラルネットワーク(CNN)のアンサンブルを提案する。
アンサンブル法では、多くの異なるモデルが訓練され、分類に使用され、アンサンブルは単一分類器の出力を集約する。
提案するアンサンブルは,DeepLabV3+とHarDNet環境を用いて,異なるバックボーンネットワークを組み合わせることで実現されている。
論文 参考訳(メタデータ) (2021-12-24T05:54:21Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Probabilistic Robustness Analysis for DNNs based on PAC Learning [14.558877524991752]
我々は、DNNを入力から出力までの関数 $boldsymbolf$ とみなし、与えられた入力に対する局所ロバスト性を考慮する。
目標ラベル $ell$ と攻撃ラベル $i$ に関してスコア差関数 $f_i-f_ell$ を学習する。
我々のフレームワークは、6.5ドルのニューロンを持つResNet152のような非常に大きなニューラルネットワークを処理でき、しばしば敵の例を生成する。
論文 参考訳(メタデータ) (2021-01-25T14:10:52Z) - Towards Understanding Hierarchical Learning: Benefits of Neural
Representations [160.33479656108926]
この研究で、中間的神経表現がニューラルネットワークにさらなる柔軟性をもたらすことを実証する。
提案手法は, 生の入力と比較して, サンプルの複雑度を向上できることを示す。
この結果から, 深度が深層学習においてなぜ重要かという新たな視点が得られた。
論文 参考訳(メタデータ) (2020-06-24T02:44:54Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。