論文の概要: Transformer-Based Decoding in Concatenated Coding Schemes Under Synchronization Errors
- arxiv url: http://arxiv.org/abs/2511.00999v1
- Date: Sun, 02 Nov 2025 16:22:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.021489
- Title: Transformer-Based Decoding in Concatenated Coding Schemes Under Synchronization Errors
- Title(参考訳): シンクロナイズエラーを考慮したコンカレント符号化方式におけるトランスフォーマーによる復号
- Authors: Julian Streit, Franziska Weindel, Reinhard Heckel,
- Abstract要約: 我々は変換器をベースとしたインナーデコーダであるBCJRFormerを紹介する。
BCJRFormerは、バイナリおよび4次シングルメッセージ送信のためのBCJRアルゴリズムに匹敵するニューラルエラー率を達成する。
また,ConvBCJRFormerと呼ばれる新しいトランスアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 16.21436911989141
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the reconstruction of a codeword from multiple noisy copies that are independently corrupted by insertions, deletions, and substitutions. This problem arises, for example, in DNA data storage. A common code construction uses a concatenated coding scheme that combines an outer linear block code with an inner code, which can be either a nonlinear marker code or a convolutional code. Outer decoding is done with Belief Propagation, and inner decoding is done with the Bahl-Cocke-Jelinek-Raviv (BCJR) algorithm. However, the BCJR algorithm scales exponentially with the number of noisy copies, which makes it infeasible to reconstruct a codeword from more than about four copies. In this work, we introduce BCJRFormer, a transformer-based neural inner decoder. BCJRFormer achieves error rates comparable to the BCJR algorithm for binary and quaternary single-message transmissions of marker codes. Importantly, BCJRFormer scales quadratically with the number of noisy copies. This property makes BCJRFormer well-suited for DNA data storage, where multiple reads of the same DNA strand occur. To lower error rates, we replace the Belief Propagation outer decoder with a transformer-based decoder. Together, these modifications yield an efficient and performant end-to-end transformer-based pipeline for decoding multiple noisy copies affected by insertion, deletion, and substitution errors. Additionally, we propose a novel cross-attending transformer architecture called ConvBCJRFormer. This architecture extends BCJRFormer to decode transmissions of convolutional codewords, serving as an initial step toward joint inner and outer decoding for more general linear code classes.
- Abstract(参考訳): 挿入,削除,置換によって独立に破損した複数のノイズコピーからのコードワードの再構築を検討する。
この問題は、例えばDNAデータストレージで発生する。
共通コード構成は、外部線形ブロックコードと内部コードを組み合わせた連結符号スキームを使用し、これは非線形マーカーコードまたは畳み込みコードである。
外部デコーディングはBerhl-Cocke-Jelinek-Raviv (BCJR)アルゴリズムで行う。
しかし、BCJRアルゴリズムは、ノイズの多いコピー数で指数関数的にスケールするので、約4つのコピーからコードワードを再構築することは不可能である。
本稿では,変換器を用いたニューラルインナーデコーダであるBCJRFormerを紹介する。
BCJRFormerは、マーカー符号の2進および4進のシングルメッセージ送信のためのBCJRアルゴリズムに匹敵するエラー率を達成する。
重要なことに、BCJRFormerはノイズの多いコピー数で2次スケールする。
この性質により、BCJRFormerはDNAデータの保存に適しており、同じDNA鎖の複数の読み取りが行われる。
誤り率を下げるために、Belief Propagationの外部デコーダを変換器ベースのデコーダに置き換える。
これらの修正によって、挿入、削除、置換エラーによって影響を受ける複数のノイズのあるコピーを復号する、効率的かつ高性能なトランスフォーマーベースのパイプラインが得られる。
また,ConvBCJRFormerと呼ばれる新しいトランスアーキテクチャを提案する。
このアーキテクチャは、BCJRFormerを拡張して畳み込みコードワードのトランスミッションをデコードし、より一般的な線形コードクラスのジョイントインナーとアウターデコードへの最初のステップとして機能する。
関連論文リスト
- Fast correlated decoding of transversal logical algorithms [67.01652927671279]
大規模計算には量子エラー補正(QEC)が必要であるが、かなりのリソースオーバーヘッドが発生する。
近年の進歩により、論理ゲートからなるアルゴリズムにおいて論理キュービットを共同で復号化することにより、症候群抽出ラウンドの数を削減できることが示されている。
ここでは、回路を介して伝播する関連する論理演算子製品を直接復号することで、回路の復号化の問題を修正する。
論文 参考訳(メタデータ) (2025-05-19T18:00:00Z) - Unified Error Correction Code Transformer with Low Complexity [41.04310848437611]
従来のデコーダは各コードに専用のハードウェアを必要とするため、高いハードウェアコストがかかる。
本稿では,1つのフレームワーク内で複数の線形ブロックコードを処理するトランスフォーマーベースのデコーダを提案する。
論文 参考訳(メタデータ) (2024-10-04T12:30:42Z) - Learning Linear Block Error Correction Codes [62.25533750469467]
本稿では,バイナリ線形ブロック符号の統一エンコーダデコーダトレーニングを初めて提案する。
また,コード勾配の効率的なバックプロパゲーションのために,自己注意マスキングを行うトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2024-05-07T06:47:12Z) - Progressive-Proximity Bit-Flipping for Decoding Surface Codes [8.971989179518214]
トリックやサーフェスコードのようなトポロジカル量子コードは、ハードウェア実装の優れた候補である。
既存のデコーダは、計算複雑性の低いような要求を満たすのに不足することが多い。
トリックおよび表面符号に適した新しいビットフリップ(BF)デコーダを提案する。
論文 参考訳(メタデータ) (2024-02-24T22:38:05Z) - Error Correction Code Transformer [92.10654749898927]
本稿では,トランスフォーマーアーキテクチャを任意のブロック長で線形符号のソフトデコードに拡張することを提案する。
我々は,各チャネルの出力次元を高次元に符号化し,個別に処理すべきビット情報のより良い表現を行う。
提案手法は、トランスフォーマーの極端なパワーと柔軟性を示し、既存の最先端のニューラルデコーダを、その時間的複雑さのごく一部で大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-03-27T15:25:58Z) - Sparse Coding with Multi-Layer Decoders using Variance Regularization [19.8572592390623]
本稿では,デコーダの正規化を必要とせずに,符号の崩壊を防止する新しいスパース符号化プロトコルを提案する。
本手法は,各潜時符号成分が一定の閾値を超える分散を有するように,直接正規化する。
分散正規化法を用いて訓練した多層デコーダを用いたスパースオートエンコーダは、スペーサー表現を用いた高品質な再構成を実現する。
論文 参考訳(メタデータ) (2021-12-16T21:46:23Z) - KO codes: Inventing Nonlinear Encoding and Decoding for Reliable
Wireless Communication via Deep-learning [76.5589486928387]
ランドマークコードは、Reed-Muller、BCH、Convolution、Turbo、LDPC、Polarといった信頼性の高い物理層通信を支える。
本論文では、ディープラーニング駆動型(エンコーダ、デコーダ)ペアの計算効率の良いファミリーであるKO符号を構築する。
KO符号は最先端のリード・ミュラー符号と極符号を破り、低複雑さの逐次復号法で復号された。
論文 参考訳(メタデータ) (2021-08-29T21:08:30Z) - Relevance Transformer: Generating Concise Code Snippets with Relevance
Feedback [6.230751621285322]
我々は、明示的なコード生成のためのモダントランスフォーマーアーキテクチャを導入し、研究する。
我々は、擬似関連フィードバックを用いて外部知識を組み込んだRelevance Transformerと呼ばれる新しいモデルを提案する。
その結果,BLEU評価に基づく最先端手法の改善が示された。
論文 参考訳(メタデータ) (2020-07-06T09:54:17Z) - Correcting spanning errors with a fractal code [7.6146285961466]
立方体符号のフラクタル特性を模倣した2次元古典符号であるフィボナッチ符号の効率的な復号器を提案する。
我々は,デコーダが一次元相関誤差に対して頑健であることを示す数値実験を行った。
論文 参考訳(メタデータ) (2020-02-26T19:00:06Z) - Pruning Neural Belief Propagation Decoders [77.237958592189]
本稿では,機械学習を用いたBPデコードに対して,過剰完全パリティチェック行列を調整する手法を提案する。
我々は,デコーダの複雑さを低減しつつ,0.27dB,1.5dBのML性能を実現する。
論文 参考訳(メタデータ) (2020-01-21T12:05:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。