論文の概要: Graph Neural Networks for Channel Decoding
- arxiv url: http://arxiv.org/abs/2207.14742v1
- Date: Fri, 29 Jul 2022 15:29:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-01 13:29:55.805820
- Title: Graph Neural Networks for Channel Decoding
- Title(参考訳): チャネルデコーディングのためのグラフニューラルネットワーク
- Authors: Sebastian Cammerer, Jakob Hoydis, Fay\c{c}al A\"it Aoudia, and
Alexander Keller
- Abstract要約: 低密度パリティチェック(LDPC)やBCH符号など、様々な符号化方式の競合復号性能を示す。
ニューラルネットワーク(NN)は、与えられたグラフ上で一般化されたメッセージパッシングアルゴリズムを学習する。
提案するデコーダを,従来のチャネル復号法および最近のディープラーニングに基づく結果と比較した。
- 参考スコア(独自算出の注目度): 71.15576353630667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose a fully differentiable graph neural network
(GNN)-based architecture for channel decoding and showcase competitive decoding
performance for various coding schemes, such as low-density parity-check (LDPC)
and BCH codes. The idea is to let a neural network (NN) learn a generalized
message passing algorithm over a given graph that represents the forward error
correction (FEC) code structure by replacing node and edge message updates with
trainable functions. Contrary to many other deep learning-based decoding
approaches, the proposed solution enjoys scalability to arbitrary block lengths
and the training is not limited by the curse of dimensionality. We benchmark
our proposed decoder against state-of-the-art in conventional channel decoding
as well as against recent deep learning-based results. For the (63,45) BCH
code, our solution outperforms weighted belief propagation (BP) decoding by
approximately 0.4 dB with significantly less decoding iterations and even for
5G NR LDPC codes, we observe a competitive performance when compared to
conventional BP decoding. For the BCH codes, the resulting GNN decoder can be
fully parametrized with only 9640 weights.
- Abstract(参考訳): 本研究では,低密度パリティチェック(LDPC)やBCH符号など,様々な符号化方式において,チャネル復号化のための完全微分可能なグラフニューラルネットワーク(GNN)アーキテクチャを提案する。
ニューラルネットワーク(NN)は、ノードとエッジのメッセージ更新をトレーニング可能な関数に置き換えることで、フォワードエラー訂正(FEC)コード構造を表す所定のグラフ上で、一般化されたメッセージパッシングアルゴリズムを学習する。
他の深層学習に基づくデコーディング手法とは対照的に,提案手法は任意のブロック長に対するスケーラビリティを享受し,次元性の呪いによってトレーニングは制限されない。
提案するデコーダを,従来のチャネル復号法および最近のディープラーニングに基づく結果と比較した。
63,45) の BCH 符号では,約 0.4 dB の重み付き信念伝播 (BP) 復号法よりもデコード繰り返しが著しく少なく,また 5G NR LDPC 符号においても従来の BP 復号法と比較して競合性能が向上する。
BCH符号では、結果として生じるGNNデコーダは9640重みで完全にパラメータ化できる。
関連論文リスト
- Neural Belief Propagation Decoding of Quantum LDPC Codes Using
Overcomplete Check Matrices [60.02503434201552]
元のチェック行列における行の線形結合から生成された冗長な行を持つチェック行列に基づいてQLDPC符号を復号する。
このアプローチは、非常に低い復号遅延の利点を付加して、復号性能を著しく向上させる。
論文 参考訳(メタデータ) (2022-12-20T13:41:27Z) - A Scalable Graph Neural Network Decoder for Short Block Codes [49.25571364253986]
エッジ重み付きグラフニューラルネットワーク(EW-GNN)に基づく短絡符号の復号化アルゴリズムを提案する。
EW-GNNデコーダは、繰り返しメッセージパッシング構造を持つタナーグラフで動作する。
EW-GNNデコーダは,復号誤り率の観点から,BP法および深層学習に基づくBP法より優れていることを示す。
論文 参考訳(メタデータ) (2022-11-13T17:13:12Z) - Adversarial Neural Networks for Error Correcting Codes [76.70040964453638]
機械学習(ML)モデルの性能と適用性を高めるための一般的なフレームワークを紹介する。
本稿では,MLデコーダと競合する識別器ネットワークを組み合わせることを提案する。
我々のフレームワークはゲーム理論であり、GAN(Generative Adversarial Network)によって動機付けられている。
論文 参考訳(メタデータ) (2021-12-21T19:14:44Z) - KO codes: Inventing Nonlinear Encoding and Decoding for Reliable
Wireless Communication via Deep-learning [76.5589486928387]
ランドマークコードは、Reed-Muller、BCH、Convolution、Turbo、LDPC、Polarといった信頼性の高い物理層通信を支える。
本論文では、ディープラーニング駆動型(エンコーダ、デコーダ)ペアの計算効率の良いファミリーであるKO符号を構築する。
KO符号は最先端のリード・ミュラー符号と極符号を破り、低複雑さの逐次復号法で復号された。
論文 参考訳(メタデータ) (2021-08-29T21:08:30Z) - Cyclically Equivariant Neural Decoders for Cyclic Codes [33.63188063525036]
循環不変性を利用して,循環符号のニューラルデコーダを提案する。
当社の新しいデコーダは、サイクル符号のデコード時に、従来のニューラルデコーダを一貫して上回る性能を発揮します。
最後に,BCH符号と句読込みRM符号の復号誤差確率を大幅に低減できるリスト復号手順を提案する。
論文 参考訳(メタデータ) (2021-05-12T09:41:13Z) - Scalable and Efficient Neural Speech Coding [24.959825692325445]
本研究では,音声圧縮のためのスケーラブルかつ効率的なニューラル波形(NWC)を提案する。
提案するcnnオートエンコーダは、量子化と符号化を訓練可能なモジュールとして定義する。
他の自己回帰型デコーダベースのニューラルスピーチと比較すると、デコーダのアーキテクチャは大幅に小さい。
論文 参考訳(メタデータ) (2021-03-27T00:10:16Z) - Decoding 5G-NR Communications via Deep Learning [6.09170287691728]
本稿では,Deep Neural Network(DNN)と共同で自動符号化ニューラルネットワーク(ANN)を用いて,デマッピングとデコードのための自動符号化ディープニューラルネットワーク(ADNN)を構築することを提案する。
その結果、特定のBERターゲットに対して、AWGN(Additive White Gaussian Noise)チャネルにおいて、SNR(Signal to Noise Ratio)の$3$dBが要求されることが明らかになった。
論文 参考訳(メタデータ) (2020-07-15T12:00:20Z) - Infomax Neural Joint Source-Channel Coding via Adversarial Bit Flip [41.28049430114734]
本稿では、ニューラルジョイント・ソース・チャネル符号化方式の安定性と堅牢性を改善するために、Infomax Adversarial-Bit-Flip (IABF) と呼ばれる新しい正規化手法を提案する。
我々のIABFは、圧縮と誤り訂正のベンチマークの両方で最先端のパフォーマンスを達成でき、ベースラインをかなりの差で上回ることができる。
論文 参考訳(メタデータ) (2020-04-03T10:00:02Z) - Pruning Neural Belief Propagation Decoders [77.237958592189]
本稿では,機械学習を用いたBPデコードに対して,過剰完全パリティチェック行列を調整する手法を提案する。
我々は,デコーダの複雑さを低減しつつ,0.27dB,1.5dBのML性能を実現する。
論文 参考訳(メタデータ) (2020-01-21T12:05:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。