論文の概要: 5G LDPC Linear Transformer for Channel Decoding
- arxiv url: http://arxiv.org/abs/2501.14102v1
- Date: Thu, 23 Jan 2025 21:29:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:55:43.836003
- Title: 5G LDPC Linear Transformer for Channel Decoding
- Title(参考訳): チャネル復号化のための5G LDPC線形変換器
- Authors: Mario Hernandez, Fernando Pinero,
- Abstract要約: この研究は、5G New Radio (NR) LDPCを補正するための、新しい、完全に微分可能な線形時間複雑性デコーダとトランスフォーマーデコーダを導入している。
正規変換器では$O(n2)$ではなく$O(n)$の複雑さで線形ブロックコードをデコードするスケーラブルな手法を提案する。
我々は、通常のTransformerデコーダにマッチするビット誤り率のパフォーマンスを達成し、1回のBPをサパスし、より大きなブロックコードであってもBPに対して競合時間性能を達成する。
- 参考スコア(独自算出の注目度): 44.99833362998488
- License:
- Abstract: This work introduces a novel, fully differentiable linear-time complexity transformer decoder and a transformer decoder to correct 5G New Radio (NR) LDPC. We propose a scalable approach to decode linear block codes with $O(n)$ complexity rather than $O(n^2)$ for regular transformers. The architectures' performances are compared to Belief Propagation (BP), the production-level decoding algorithm used for 5G New Radio (NR) LDPC codes. We achieve bit error rate performance that matches a regular Transformer decoder and surpases one iteration BP, also achieving competitive time performance against BP, even for larger block codes. We utilize Sionna, Nvidia's 5G & 6G physical layer research software, for reproducible results.
- Abstract(参考訳): この研究は、5G New Radio (NR) LDPCを補正するための、新しい、完全に微分可能な線形時間複雑性デコーダとトランスフォーマーデコーダを導入している。
正規変換器では$O(n^2)$ではなく$O(n)$複雑性で線形ブロックコードをデコードするスケーラブルな手法を提案する。
アーキテクチャの性能は、5G New Radio (NR) LDPC符号に使用される生産レベルの復号アルゴリズムであるBelief Propagation (BP)と比較される。
我々は、通常のTransformerデコーダにマッチするビット誤り率のパフォーマンスを達成し、1回のBPをサパスし、より大きなブロックコードであってもBPに対して競合時間性能を達成する。
Nvidiaの5Gおよび6G物理層研究ソフトウェアであるSionnaを再現可能な結果に利用しています。
関連論文リスト
- Graph Neural Networks for Enhanced Decoding of Quantum LDPC Codes [6.175503577352742]
量子低密度パリティチェック(LDPC)符号に対する微分可能な反復デコーダを提案する。
提案アルゴリズムは,古典的信念伝達(BP)復号段階と中間グラフニューラルネットワーク(GNN)層から構成される。
論文 参考訳(メタデータ) (2023-10-26T19:56:25Z) - Scalable Quantum Error Correction for Surface Codes using FPGA [67.74017895815125]
フォールトトレラントな量子コンピュータは、出現するよりも早くデコードし、エラーを修正する必要がある。
並列計算資源を利用したUnion-Findデコーダの分散バージョンを報告する。
この実装では、並列コンピューティングリソースをハイブリッドツリーグリッド構造に整理する、Heliosと呼ばれるスケーラブルなアーキテクチャを採用している。
論文 参考訳(メタデータ) (2023-01-20T04:23:00Z) - Neural Belief Propagation Decoding of Quantum LDPC Codes Using
Overcomplete Check Matrices [60.02503434201552]
元のチェック行列における行の線形結合から生成された冗長な行を持つチェック行列に基づいてQLDPC符号を復号する。
このアプローチは、非常に低い復号遅延の利点を付加して、復号性能を著しく向上させる。
論文 参考訳(メタデータ) (2022-12-20T13:41:27Z) - Graph Neural Networks for Channel Decoding [71.15576353630667]
低密度パリティチェック(LDPC)やBCH符号など、様々な符号化方式の競合復号性能を示す。
ニューラルネットワーク(NN)は、与えられたグラフ上で一般化されたメッセージパッシングアルゴリズムを学習する。
提案するデコーダを,従来のチャネル復号法および最近のディープラーニングに基づく結果と比較した。
論文 参考訳(メタデータ) (2022-07-29T15:29:18Z) - Error Correction Code Transformer [92.10654749898927]
本稿では,トランスフォーマーアーキテクチャを任意のブロック長で線形符号のソフトデコードに拡張することを提案する。
我々は,各チャネルの出力次元を高次元に符号化し,個別に処理すべきビット情報のより良い表現を行う。
提案手法は、トランスフォーマーの極端なパワーと柔軟性を示し、既存の最先端のニューラルデコーダを、その時間的複雑さのごく一部で大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-03-27T15:25:58Z) - Instantaneous Grammatical Error Correction with Shallow Aggressive
Decoding [57.08875260900373]
即時文法的誤り訂正(GEC)のためのトランスフォーマーのオンライン推論効率を改善するために,Shallow Aggressive Decoding (SAD)を提案する。
SADは、計算並列性を改善するために、各ステップで1つのトークンだけを復号するのではなく、可能な限り多くのトークンを並列に復号する。
英語と中国語のGECベンチマークでの実験では、アグレッシブな復号化がオンライン推論の大幅なスピードアップをもたらす可能性がある。
論文 参考訳(メタデータ) (2021-06-09T10:30:59Z) - Refined Belief-Propagation Decoding of Quantum Codes with Scalar
Messages [4.340338299803562]
スパース行列に基づく符号は優れた性能を有し、信念伝達(BP)により効率よく復号できる。
安定化器符号のBP復号は、基礎となるタナーグラフの短周期から性能損失を被る。
連続スケジュールによるメッセージ正規化を伴うBPの動作は,計算機シミュレーションにおけるデコード性能とエラーフロアを大幅に向上させる可能性があることを示す。
論文 参考訳(メタデータ) (2021-02-14T10:29:58Z) - Decoding 5G-NR Communications via Deep Learning [6.09170287691728]
本稿では,Deep Neural Network(DNN)と共同で自動符号化ニューラルネットワーク(ANN)を用いて,デマッピングとデコードのための自動符号化ディープニューラルネットワーク(ADNN)を構築することを提案する。
その結果、特定のBERターゲットに対して、AWGN(Additive White Gaussian Noise)チャネルにおいて、SNR(Signal to Noise Ratio)の$3$dBが要求されることが明らかになった。
論文 参考訳(メタデータ) (2020-07-15T12:00:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。