論文の概要: Boosted Neural Decoders: Achieving Extreme Reliability of LDPC Codes for 6G Networks
- arxiv url: http://arxiv.org/abs/2405.13413v2
- Date: Thu, 14 Nov 2024 23:54:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-18 18:55:12.601867
- Title: Boosted Neural Decoders: Achieving Extreme Reliability of LDPC Codes for 6G Networks
- Title(参考訳): 強化ニューラルデコーダ:6Gネットワーク用LDPCコードの極度信頼性を実現する
- Authors: Hee-Youl Kwak, Dae-Young Yun, Yongjune Kim, Sang-Hyo Kim, Jong-Seon No,
- Abstract要約: 6Gネットワーク内の超信頼性・低遅延通信(xURLLC)の次世代では、フレームエラー率(FER)が10-9ドル以下である。
低密度パリティチェック(LDPC)符号は5Gニューラジオ(NR)の標準規格であり、エラーフロア現象と呼ばれる課題に直面している。
本稿では,ニューラル・ミニサム(NMS)デコーダの高速化という革新的な手法を提案する。
- 参考スコア(独自算出の注目度): 15.190674451882964
- License:
- Abstract: Ensuring extremely high reliability in channel coding is essential for 6G networks. The next-generation of ultra-reliable and low-latency communications (xURLLC) scenario within 6G networks requires frame error rate (FER) below $10^{-9}$. However, low-density parity-check (LDPC) codes, the standard in 5G new radio (NR), encounter a challenge known as the error floor phenomenon, which hinders to achieve such low rates. To tackle this problem, we introduce an innovative solution: boosted neural min-sum (NMS) decoder. This decoder operates identically to conventional NMS decoders, but is trained by novel training methods including: i) boosting learning with uncorrected vectors, ii) block-wise training schedule to address the vanishing gradient issue, iii) dynamic weight sharing to minimize the number of trainable weights, iv) transfer learning to reduce the required sample count, and v) data augmentation to expedite the sampling process. Leveraging these training strategies, the boosted NMS decoder achieves the state-of-the art performance in reducing the error floor as well as superior waterfall performance. Remarkably, we fulfill the 6G xURLLC requirement for 5G LDPC codes without a severe error floor. Additionally, the boosted NMS decoder, once its weights are trained, can perform decoding without additional modules, making it highly practical for immediate application. The source code is available at https://github.com/ghy1228/LDPC_Error_Floor.
- Abstract(参考訳): 6Gネットワークでは、チャネル符号化において極めて高い信頼性を確保することが不可欠である。
6Gネットワークにおける超信頼性・低遅延通信(xURLLC)の次世代シナリオは、フレームエラー率(FER)が10-9$以下である。
しかし、低密度パリティチェック(LDPC)符号は5Gニューラジオ(NR)の標準規格であり、エラーフロア現象と呼ばれる問題に遭遇し、そのような低レートを達成するのを妨げている。
この問題に対処するため,ニューラルミンサム(NMS)デコーダの高速化という,革新的なソリューションを導入する。
このデコーダは、従来のNMSデコーダと同一動作であるが、以下を含む新しい訓練方法によって訓練されている。
一 不正なベクトルによる学習の促進
二 消滅する勾配問題に対処するためのブロック単位の訓練スケジュール
三 トレーニング可能な重量の数を最小にするため、動的重量共有
四 必要なサンプル数を減らすための伝達学習及び
五 サンプリング処理の迅速化のためのデータ拡張
これらのトレーニング戦略を活用することで、強化されたNMSデコーダは、エラーフロアを低減し、優れたウォーターフォールパフォーマンスを実現する。
注目すべきは、5G LDPC符号の6G xURLLC要件を重大エラーフロアなしで満たすことである。
さらに、強化されたNMSデコーダは、一度重みが訓練されると、追加モジュールなしでデコードを実行でき、即時適用に非常に実用的である。
ソースコードはhttps://github.com/ghy1228/LDPC_Error_Floor.comで公開されている。
関連論文リスト
- Accelerating Error Correction Code Transformers [56.75773430667148]
本稿では,トランスを用いたデコーダの高速化手法を提案する。
最新のハードウェアでは、90%の圧縮比を実現し、算術演算エネルギー消費を少なくとも224倍削減する。
論文 参考訳(メタデータ) (2024-10-08T11:07:55Z) - Boosting Learning for LDPC Codes to Improve the Error-Floor Performance [16.297253625958174]
本稿では,ニューラルミンサムデコーダ(NMS)のトレーニング手法を提案する。
異なる重み付けを不満足なチェックノードに割り当てることで、最小限の重み付けでエラーフロアを効果的に低減できることを示す。
提案したNMSデコーダは、余分なハードウェアコストを発生させることなく、既存のLDPCデコーダに統合することができる。
論文 参考訳(メタデータ) (2023-10-11T05:05:40Z) - Coding for the Gaussian Channel in the Finite Blocklength Regime Using a
CNN-Autoencoder [13.276758337527038]
低レイテンシ通信をサポートするには短いコードが必要だが、フレームエラー確率(FEP)の消滅には長いコードが必要である。
本稿では,畳み込みニューラルネットワークオートエンコーダ(CNN-AE)の理論的最大到達率へのアプローチの可能性について検討する。
数値計算の結果,CNN-AEはベンチマーク・スキームを上回り,理論上の最大値に近づいた。
論文 参考訳(メタデータ) (2023-05-25T19:13:31Z) - Channelformer: Attention based Neural Solution for Wireless Channel
Estimation and Effective Online Training [1.0499453838486013]
本稿では,改良されたチャネル推定を実現するために,エンコーダ・デコーダニューラルアーキテクチャ(Channelformer)を提案する。
我々は,復号器として,エンコーダと残差畳み込みニューラルアーキテクチャに多面的注意を払っている。
また,現代通信システムにおける第5世代(5G)新しい無線(NR)構成に基づく効果的なオンライントレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-02-08T23:18:23Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Graph Neural Networks for Channel Decoding [71.15576353630667]
低密度パリティチェック(LDPC)やBCH符号など、様々な符号化方式の競合復号性能を示す。
ニューラルネットワーク(NN)は、与えられたグラフ上で一般化されたメッセージパッシングアルゴリズムを学習する。
提案するデコーダを,従来のチャネル復号法および最近のディープラーニングに基づく結果と比較した。
論文 参考訳(メタデータ) (2022-07-29T15:29:18Z) - Boost decoding performance of finite geometry LDPC codes with deep
learning tactics [3.1519370595822274]
有限幾何LDPC符号のクラスに対して,低複雑かつ高性能なデコーダを求める。
高品質なトレーニングデータを効果的に生成する方法について詳述する。
論文 参考訳(メタデータ) (2022-05-01T14:41:16Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Low-Precision Training in Logarithmic Number System using Multiplicative
Weight Update [49.948082497688404]
大規模ディープニューラルネットワーク(DNN)のトレーニングは、現在かなりの量のエネルギーを必要としており、深刻な環境影響をもたらす。
エネルギーコストを削減するための有望なアプローチの1つは、DNNを低精度で表現することである。
対数数システム(LNS)と乗算重み更新訓練法(LNS-Madam)を併用した低精度トレーニングフレームワークを共同で設計する。
論文 参考訳(メタデータ) (2021-06-26T00:32:17Z) - Decoding 5G-NR Communications via Deep Learning [6.09170287691728]
本稿では,Deep Neural Network(DNN)と共同で自動符号化ニューラルネットワーク(ANN)を用いて,デマッピングとデコードのための自動符号化ディープニューラルネットワーク(ADNN)を構築することを提案する。
その結果、特定のBERターゲットに対して、AWGN(Additive White Gaussian Noise)チャネルにおいて、SNR(Signal to Noise Ratio)の$3$dBが要求されることが明らかになった。
論文 参考訳(メタデータ) (2020-07-15T12:00:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。