論文の概要: Cyclically Equivariant Neural Decoders for Cyclic Codes
- arxiv url: http://arxiv.org/abs/2105.05540v1
- Date: Wed, 12 May 2021 09:41:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 12:13:44.941334
- Title: Cyclically Equivariant Neural Decoders for Cyclic Codes
- Title(参考訳): サイクルコードのための周期同変ニューラルデコーダ
- Authors: Xiangyu Chen and Min Ye
- Abstract要約: 循環不変性を利用して,循環符号のニューラルデコーダを提案する。
当社の新しいデコーダは、サイクル符号のデコード時に、従来のニューラルデコーダを一貫して上回る性能を発揮します。
最後に,BCH符号と句読込みRM符号の復号誤差確率を大幅に低減できるリスト復号手順を提案する。
- 参考スコア(独自算出の注目度): 33.63188063525036
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural decoders were introduced as a generalization of the classic Belief
Propagation (BP) decoding algorithms, where the Trellis graph in the BP
algorithm is viewed as a neural network, and the weights in the Trellis graph
are optimized by training the neural network. In this work, we propose a novel
neural decoder for cyclic codes by exploiting their cyclically invariant
property. More precisely, we impose a shift invariant structure on the weights
of our neural decoder so that any cyclic shift of inputs results in the same
cyclic shift of outputs. Extensive simulations with BCH codes and punctured
Reed-Muller (RM) codes show that our new decoder consistently outperforms
previous neural decoders when decoding cyclic codes. Finally, we propose a list
decoding procedure that can significantly reduce the decoding error probability
for BCH codes and punctured RM codes. For certain high-rate codes, the gap
between our list decoder and the Maximum Likelihood decoder is less than
$0.1$dB. Code available at
https://github.com/cyclicallyneuraldecoder/CyclicallyEquivariantNeuralDecoders
- Abstract(参考訳): ニューラルデコーダは、bpアルゴリズム内のトレリスグラフをニューラルネットワークと見なす古典的な信念伝達(bp)デコードアルゴリズムの一般化として導入され、トレリスグラフの重みをニューラルネットワークのトレーニングによって最適化した。
本研究では, 循環的不変性を利用して, サイクリック符号のニューラルデコーダを提案する。
より正確には、入力の循環的なシフトが出力の循環的なシフトをもたらすように、ニューラルデコーダの重みにシフト不変構造を課す。
BCH符号と句読解されたリード・ミュラー符号(RM)符号による広範囲なシミュレーションにより、我々の新しいデコーダは巡回符号を復号する際に、常に従来の神経デコーダより優れていたことが示される。
最後に,BCH符号と句読点RM符号の復号誤り確率を大幅に低減できるリスト復号法を提案する。
特定のハイレートコードでは、リストデコーダとMaximum Likelihoodデコーダの差は0.1$dB未満である。
https://github.com/cyclicallyneuraldecoder/CyclicallyEquivariantNeuralDecodersで利用可能なコード
関連論文リスト
- Learning Linear Block Error Correction Codes [62.25533750469467]
本稿では,バイナリ線形ブロック符号の統一エンコーダデコーダトレーニングを初めて提案する。
また,コード勾配の効率的なバックプロパゲーションのために,自己注意マスキングを行うトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2024-05-07T06:47:12Z) - Graph Neural Networks for Enhanced Decoding of Quantum LDPC Codes [6.175503577352742]
量子低密度パリティチェック(LDPC)符号に対する微分可能な反復デコーダを提案する。
提案アルゴリズムは,古典的信念伝達(BP)復号段階と中間グラフニューラルネットワーク(GNN)層から構成される。
論文 参考訳(メタデータ) (2023-10-26T19:56:25Z) - Optimizing Serially Concatenated Neural Codes with Classical Decoders [8.692972779213932]
従来の復号アルゴリズムが非自明な実数値ニューラルコードに適用されていることを示す。
BCJRアルゴリズムは完全に微分可能であるので、エンドツーエンドでニューラルエンコーダのトレーニングや微調整が可能である。
論文 参考訳(メタデータ) (2022-12-20T15:40:08Z) - Neural Belief Propagation Decoding of Quantum LDPC Codes Using
Overcomplete Check Matrices [60.02503434201552]
元のチェック行列における行の線形結合から生成された冗長な行を持つチェック行列に基づいてQLDPC符号を復号する。
このアプローチは、非常に低い復号遅延の利点を付加して、復号性能を著しく向上させる。
論文 参考訳(メタデータ) (2022-12-20T13:41:27Z) - A Scalable Graph Neural Network Decoder for Short Block Codes [49.25571364253986]
エッジ重み付きグラフニューラルネットワーク(EW-GNN)に基づく短絡符号の復号化アルゴリズムを提案する。
EW-GNNデコーダは、繰り返しメッセージパッシング構造を持つタナーグラフで動作する。
EW-GNNデコーダは,復号誤り率の観点から,BP法および深層学習に基づくBP法より優れていることを示す。
論文 参考訳(メタデータ) (2022-11-13T17:13:12Z) - Graph Neural Networks for Channel Decoding [71.15576353630667]
低密度パリティチェック(LDPC)やBCH符号など、様々な符号化方式の競合復号性能を示す。
ニューラルネットワーク(NN)は、与えられたグラフ上で一般化されたメッセージパッシングアルゴリズムを学習する。
提案するデコーダを,従来のチャネル復号法および最近のディープラーニングに基づく結果と比較した。
論文 参考訳(メタデータ) (2022-07-29T15:29:18Z) - Adversarial Neural Networks for Error Correcting Codes [76.70040964453638]
機械学習(ML)モデルの性能と適用性を高めるための一般的なフレームワークを紹介する。
本稿では,MLデコーダと競合する識別器ネットワークを組み合わせることを提案する。
我々のフレームワークはゲーム理論であり、GAN(Generative Adversarial Network)によって動機付けられている。
論文 参考訳(メタデータ) (2021-12-21T19:14:44Z) - ProductAE: Towards Training Larger Channel Codes based on Neural Product
Codes [9.118706387430885]
ディープラーニング技術を通じて比較的大きなニューラルチャネルコードを設計し、訓練することは、違法に複雑である。
本稿では,ディープラーニング駆動型(エンコーダ,デコーダ)ペアの計算効率の良いファミリーであるProductAEsを構築する。
我々は、パラメータのコード(100,225)$とパラメータの中間長コード(196,441)$に対して、SNR(Signal-to-noise ratio)のあらゆる範囲において、大きな利得を示す。
論文 参考訳(メタデータ) (2021-10-09T06:00:40Z) - Improving the List Decoding Version of the Cyclically Equivariant Neural
Decoder [33.63188063525036]
本稿では,BCH符号と句読点RM符号に対するリスト復号アルゴリズムの改良版を提案する。
我々の新しいデコーダはBERによって測定された場合、以前のリストデコーダよりも最大2ドル高くなる。
論文 参考訳(メタデータ) (2021-06-15T08:37:36Z) - Pruning Neural Belief Propagation Decoders [77.237958592189]
本稿では,機械学習を用いたBPデコードに対して,過剰完全パリティチェック行列を調整する手法を提案する。
我々は,デコーダの複雑さを低減しつつ,0.27dB,1.5dBのML性能を実現する。
論文 参考訳(メタデータ) (2020-01-21T12:05:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。