論文の概要: Unified Error Correction Code Transformer with Low Complexity
- arxiv url: http://arxiv.org/abs/2410.03364v4
- Date: Thu, 30 Oct 2025 08:00:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.211869
- Title: Unified Error Correction Code Transformer with Low Complexity
- Title(参考訳): 複雑度が低い統一誤り訂正符号変換器
- Authors: Yongli Yan, Jieao Zhu, Tianyue Zheng, Zhuo Xu, Chao Jiang, Linglong Dai,
- Abstract要約: 従来のデコーダは各コードに専用のハードウェアを必要とするため、高いハードウェアコストがかかる。
本稿では,1つのフレームワーク内で複数の線形ブロックコードを処理するトランスフォーマーベースのデコーダを提案する。
- 参考スコア(独自算出の注目度): 41.04310848437611
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Channel coding is vital for reliable sixth-generation (6G) data transmission, employing diverse error correction codes for various application scenarios. Traditional decoders require dedicated hardware for each code, leading to high hardware costs. Recently, artificial intelligence (AI)-driven approaches, such as the error correction code Transformer (ECCT) and its enhanced version, the foundation error correction code Transformer (FECCT), have been proposed to reduce the hardware cost by leveraging the Transformer to decode multiple codes. However, their excessively high computational complexity of $\mathcal{O}(N^2)$ due to the self-attention mechanism in the Transformer limits scalability, where $N$ represents the sequence length. To reduce computational complexity, we propose a unified Transformer-based decoder that handles multiple linear block codes within a single framework. Specifically, a standardized unit is employed to align code length and code rate across different code types, while a redesigned low-rank unified attention module, with computational complexity of $\mathcal{O}(N)$, is shared across various heads in the Transformer. Additionally, a sparse mask, derived from the parity-check matrix's sparsity, is introduced to enhance the decoder's ability to capture inherent constraints between information and parity-check bits, improving decoding accuracy and further reducing computational complexity by $86\%$. Extensive experimental results demonstrate that the proposed unified Transformer-based decoder outperforms existing methods and provides a high-performance, low-complexity solution for next-generation wireless communication systems.
- Abstract(参考訳): チャネル符号化は信頼性の高い第6世代(6G)データ伝送に不可欠であり、様々なアプリケーションシナリオに様々なエラー訂正符号を用いる。
従来のデコーダは各コードに専用のハードウェアを必要とするため、高いハードウェアコストがかかる。
近年,誤り訂正符号変換器(ECCT)とその拡張版であるファンデーションエラー訂正符号変換器(FECCT)などの人工知能駆動型アプローチが提案されている。
しかし、トランスフォーマー制限スケーラビリティにおける自己アテンション機構のため、$\mathcal{O}(N^2)$の計算複雑性が過度に高く、$N$はシーケンス長を表す。
計算複雑性を低減するために,1つのフレームワーク内で複数の線形ブロックコードを処理するトランスフォーマーベースのデコーダを提案する。
具体的には、コードの長さとコードレートを異なるコードタイプで調整するために標準化されたユニットが使用され、再設計された低ランク統一アテンションモジュールは、計算複雑性が$\mathcal{O}(N)$で、Transformerのさまざまなヘッド間で共有される。
さらに、パリティチェック行列の空間性から派生したスパースマスクを導入し、情報とパリティチェックビット間の固有の制約を捕捉し、復号精度を改善し、さらに計算複雑性を8,6\%$に削減するデコーダの能力を向上する。
広汎な実験結果から,提案手法はトランスフォーマーをベースとしたデコーダの既存手法よりも優れ,次世代無線通信システムに高性能で低複雑さのソリューションを提供することが示された。
関連論文リスト
- Cross-Attention Message-Passing Transformers for Code-Agnostic Decoding in 6G Networks [14.631435001491514]
6Gネットワークのチャネルコーディングは、異種通信シナリオから生じる幅広い要件をサポートすることが期待されている。
従来のコード固有デコーダは、次世代システムに必要な柔軟性とスケーラビリティを欠いている。
本稿ではトランスフォーマーアーキテクチャに基づく統合型およびコードに依存しないデコーディングのためのAIネイティブ基盤モデルを提案する。
論文 参考訳(メタデータ) (2025-06-22T16:08:42Z) - Efficient Transformer-based Decoder for Varshamov-Tenengolts Codes [1.53119329713143]
主に単一エラー訂正のために設計されたVarshamov-Tenengolts (VT) コードは、研究の中心として浮上している。
既存の復号法では1つの誤りを訂正する精度が高いが、複数のIDSエラーを修正できない場合が多い。
本研究では,変換器をベースとしたVTデコーダを導入することにより,VT符号が複数のエラーに対処する能力を維持していることを示す。
論文 参考訳(メタデータ) (2025-02-28T13:59:14Z) - Decoding for Punctured Convolutional and Turbo Codes: A Deep Learning Solution for Protocols Compliance [22.85778198575678]
本稿では,Long Short-Term Memory(LSTM)をベースとしたデコードアーキテクチャを提案する。
提案手法は、句読解畳み込み符号とターボ符号を統一する。
句読点埋め込み機構は、句読点パターンを直接ネットワークに統合し、様々なコードレートへのシームレスな適応を可能にする。
論文 参考訳(メタデータ) (2025-02-21T14:00:14Z) - Threshold Selection for Iterative Decoding of $(v,w)$-regular Binary Codes [84.0257274213152]
繰り返しビットフリップデコーダは、sparse $(v,w)$-regular符号の効率的な選択である。
閉形式モデルに基づくしきい値決定のための具体的な基準を提案する。
論文 参考訳(メタデータ) (2025-01-23T17:38:22Z) - Accelerating Error Correction Code Transformers [56.75773430667148]
本稿では,トランスを用いたデコーダの高速化手法を提案する。
最新のハードウェアでは、90%の圧縮比を実現し、算術演算エネルギー消費を少なくとも224倍削減する。
論文 参考訳(メタデータ) (2024-10-08T11:07:55Z) - Learning Linear Block Error Correction Codes [62.25533750469467]
本稿では,バイナリ線形ブロック符号の統一エンコーダデコーダトレーニングを初めて提案する。
また,コード勾配の効率的なバックプロパゲーションのために,自己注意マスキングを行うトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2024-05-07T06:47:12Z) - CrossMPT: Cross-attention Message-Passing Transformer for Error Correcting Codes [14.631435001491514]
クロスアテンションメッセージパージングトランス(CrossMPT)を提案する。
また、CrossMPTは、既存のニューラルネットワークベースのデコーダを、様々なコードクラスで大幅に上回っていることを示す。
特に、CrossMPTは、メモリ使用量、複雑性、推論時間、トレーニング時間を著しく削減しながら、このデコードパフォーマンスの改善を実現している。
論文 参考訳(メタデータ) (2024-05-02T06:30:52Z) - Friendly Attacks to Improve Channel Coding Reliability [0.33993877661368754]
フレンドリーアタック」は、エラー訂正チャネルコードの性能を向上させることを目的としている。
敵攻撃の概念に触発された本手法は,ニューラルネットワーク入力にわずかな摂動を導入するという考え方を活用する。
提案手法は,異なるチャネル,変調,コード,デコーダ間の信頼性を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-01-25T13:46:21Z) - Deep Learning Assisted Multiuser MIMO Load Modulated Systems for
Enhanced Downlink mmWave Communications [68.96633803796003]
本稿では, マルチユーザ負荷変調アレイ (MU-LMA) に着目し, マイクロウェーブ (mmWave) マルチインプット・マルチアウトプット (MIMO) システムにおいて, マルチユーザ負荷変調アレイ (MU-LMA) の小型化とコスト削減を図っている。
ダウンリンクMU-LMAの既存のプリコーディングアルゴリズムは、自由度と複雑なシステム構成の低下に悩まされるサブアレイ構造化(SAS)送信機に依存している。
本稿では,FAS (Full-array Structured) 送信機を用いたMU-LMAシステムを提案し,それに応じて2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-08T08:54:56Z) - Modular decoding: parallelizable real-time decoding for quantum
computers [55.41644538483948]
リアルタイム量子計算は、ノイズの多い量子ハードウェアによって生成されたデータのストリームから論理的な結果を取り出すことができる復号アルゴリズムを必要とする。
本稿では,デコーディングの精度を犠牲にすることなく,最小限の追加通信でこの問題に対処できるモジュールデコーディングを提案する。
本稿では,格子探索型耐故障ブロックのモジュールデコーディングの具体例であるエッジ頂点分解について紹介する。
論文 参考訳(メタデータ) (2023-03-08T19:26:10Z) - Denoising Diffusion Error Correction Codes [92.10654749898927]
近年、ニューラルデコーダは古典的デコーダ技術に対する優位性を実証している。
最近の最先端のニューラルデコーダは複雑で、多くのレガシデコーダの重要な反復的スキームが欠如している。
本稿では,任意のブロック長の線形符号のソフトデコードにデノナイズ拡散モデルを適用することを提案する。
論文 参考訳(メタデータ) (2022-09-16T11:00:50Z) - Error Correction Code Transformer [92.10654749898927]
本稿では,トランスフォーマーアーキテクチャを任意のブロック長で線形符号のソフトデコードに拡張することを提案する。
我々は,各チャネルの出力次元を高次元に符号化し,個別に処理すべきビット情報のより良い表現を行う。
提案手法は、トランスフォーマーの極端なパワーと柔軟性を示し、既存の最先端のニューラルデコーダを、その時間的複雑さのごく一部で大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-03-27T15:25:58Z) - Infomax Neural Joint Source-Channel Coding via Adversarial Bit Flip [41.28049430114734]
本稿では、ニューラルジョイント・ソース・チャネル符号化方式の安定性と堅牢性を改善するために、Infomax Adversarial-Bit-Flip (IABF) と呼ばれる新しい正規化手法を提案する。
我々のIABFは、圧縮と誤り訂正のベンチマークの両方で最先端のパフォーマンスを達成でき、ベースラインをかなりの差で上回ることができる。
論文 参考訳(メタデータ) (2020-04-03T10:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。