論文の概要: On the Design and Performance of Machine Learning Based Error Correcting Decoders
- arxiv url: http://arxiv.org/abs/2410.15899v1
- Date: Mon, 21 Oct 2024 11:23:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:16:10.504453
- Title: On the Design and Performance of Machine Learning Based Error Correcting Decoders
- Title(参考訳): 機械学習に基づく誤り訂正デコーダの設計と性能について
- Authors: Yuncheng Yuan, Péter Scheepers, Lydia Tasiou, Yunus Can Gültekin, Federico Corradi, Alex Alvarado,
- Abstract要約: まず, 単一ラベル型ニューラルネットワーク (SLNN) とマルチラベル型ニューラルネットワーク (MLNN) のデコーダについて検討した。
次に、エラー訂正符号変換器(ECCT)とクロスアテンションメッセージパッシング変換器(CrossMPT)という、2つのトランスフォーマーベースのデコーダに注目します。
- 参考スコア(独自算出の注目度): 3.8289109929360245
- License:
- Abstract: This paper analyzes the design and competitiveness of four neural network (NN) architectures recently proposed as decoders for forward error correction (FEC) codes. We first consider the so-called single-label neural network (SLNN) and the multi-label neural network (MLNN) decoders which have been reported to achieve near maximum likelihood (ML) performance. Here, we show analytically that SLNN and MLNN decoders can always achieve ML performance, regardless of the code dimensions -- although at the cost of computational complexity -- and no training is in fact required. We then turn our attention to two transformer-based decoders: the error correction code transformer (ECCT) and the cross-attention message passing transformer (CrossMPT). We compare their performance against traditional decoders, and show that ordered statistics decoding outperforms these transformer-based decoders. The results in this paper cast serious doubts on the application of NN-based FEC decoders in the short and medium block length regime.
- Abstract(参考訳): 本稿では、最近提案された4つのニューラルネットワーク(NN)アーキテクチャの設計と競合性を、フォワードエラー訂正(FEC)符号のデコーダとして分析する。
我々はまず,いわゆるシングルラベルニューラルネットワーク(SLNN)とマルチラベルニューラルネットワーク(MLNN)デコーダについて検討した。
ここでは,SLNNとMLNNデコーダが,計算複雑性を犠牲にしながらも,コード次元に関わらず,常にMLのパフォーマンスを達成可能であることを解析的に示す。
次に、エラー訂正符号変換器(ECCT)とクロスアテンションメッセージパッシング変換器(CrossMPT)の2つの変圧器に基づく復号器に注意を向ける。
従来のデコーダと比較し、順序付き統計デコーダがこれらのトランスフォーマベースのデコーダより優れていることを示す。
本研究の結果は, NN-based FECデコーダの短・中ブロック長系への適用について, 重大な疑念を呈するものである。
関連論文リスト
- Accelerating Error Correction Code Transformers [56.75773430667148]
本稿では,トランスを用いたデコーダの高速化手法を提案する。
最新のハードウェアでは、90%の圧縮比を実現し、算術演算エネルギー消費を少なくとも224倍削減する。
論文 参考訳(メタデータ) (2024-10-08T11:07:55Z) - Learning Linear Block Error Correction Codes [62.25533750469467]
本稿では,バイナリ線形ブロック符号の統一エンコーダデコーダトレーニングを初めて提案する。
また,コード勾配の効率的なバックプロパゲーションのために,自己注意マスキングを行うトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2024-05-07T06:47:12Z) - CrossMPT: Cross-attention Message-Passing Transformer for Error Correcting Codes [14.631435001491514]
クロスアテンションメッセージパージングトランス(CrossMPT)を提案する。
また、CrossMPTは、既存のニューラルネットワークベースのデコーダを、様々なコードクラスで大幅に上回っていることを示す。
特に、CrossMPTは、メモリ使用量、複雑性、推論時間、トレーニング時間を著しく削減しながら、このデコードパフォーマンスの改善を実現している。
論文 参考訳(メタデータ) (2024-05-02T06:30:52Z) - Coding for Gaussian Two-Way Channels: Linear and Learning-Based
Approaches [28.98777190628006]
線形符号化と学習ベース符号化の2つの異なる双方向符号化方式を提案する。
学習に基づくコーディングには、新しいリカレントニューラルネットワーク(RNN)ベースのコーディングアーキテクチャを導入する。
我々の双方向符号化方式は、従来のチャネル符号化方式よりも格段に優れている。
論文 参考訳(メタデータ) (2023-12-31T12:40:18Z) - Neural network decoder for near-term surface-code experiments [0.7100520098029438]
ニューラルネットワークデコーダは従来のデコーダに比べて論理的誤り率を低くすることができる。
これらのデコーダは物理エラー率に関する事前情報を必要としないため、高度に適応可能である。
論文 参考訳(メタデータ) (2023-07-06T20:31:25Z) - The END: An Equivariant Neural Decoder for Quantum Error Correction [73.4384623973809]
データ効率のよいニューラルデコーダを導入し、この問題の対称性を活用する。
本稿では,従来のニューラルデコーダに比べて精度の高い新しい同変アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-04-14T19:46:39Z) - A Scalable Graph Neural Network Decoder for Short Block Codes [49.25571364253986]
エッジ重み付きグラフニューラルネットワーク(EW-GNN)に基づく短絡符号の復号化アルゴリズムを提案する。
EW-GNNデコーダは、繰り返しメッセージパッシング構造を持つタナーグラフで動作する。
EW-GNNデコーダは,復号誤り率の観点から,BP法および深層学習に基づくBP法より優れていることを示す。
論文 参考訳(メタデータ) (2022-11-13T17:13:12Z) - Graph Neural Networks for Channel Decoding [71.15576353630667]
低密度パリティチェック(LDPC)やBCH符号など、様々な符号化方式の競合復号性能を示す。
ニューラルネットワーク(NN)は、与えられたグラフ上で一般化されたメッセージパッシングアルゴリズムを学習する。
提案するデコーダを,従来のチャネル復号法および最近のディープラーニングに基づく結果と比較した。
論文 参考訳(メタデータ) (2022-07-29T15:29:18Z) - Error Correction Code Transformer [92.10654749898927]
本稿では,トランスフォーマーアーキテクチャを任意のブロック長で線形符号のソフトデコードに拡張することを提案する。
我々は,各チャネルの出力次元を高次元に符号化し,個別に処理すべきビット情報のより良い表現を行う。
提案手法は、トランスフォーマーの極端なパワーと柔軟性を示し、既存の最先端のニューラルデコーダを、その時間的複雑さのごく一部で大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-03-27T15:25:58Z) - FAID Diversity via Neural Networks [23.394836086114413]
LDPC(Low-Density Parity Check)符号のための有限アルファベット反復デコーダ(FAID)のデコーダの多様性を設計する新しいアプローチを提案する。
提案するデコーダの多様性は、繰り返し量子化ニューラルネットワーク(RQNN)をトレーニングしてFAIDを学習・設計することで達成される。
論文 参考訳(メタデータ) (2021-05-10T05:14:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。