論文の概要: ProductAE: Towards Training Larger Channel Codes based on Neural Product
Codes
- arxiv url: http://arxiv.org/abs/2110.04466v1
- Date: Sat, 9 Oct 2021 06:00:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 20:49:24.671982
- Title: ProductAE: Towards Training Larger Channel Codes based on Neural Product
Codes
- Title(参考訳): ProductAE: ニューラル製品コードに基づく大規模チャネルコードのトレーニングを目指す
- Authors: Mohammad Vahid Jamali, Hamid Saber, Homayoon Hatami, Jung Hyun Bae
- Abstract要約: ディープラーニング技術を通じて比較的大きなニューラルチャネルコードを設計し、訓練することは、違法に複雑である。
本稿では,ディープラーニング駆動型(エンコーダ,デコーダ)ペアの計算効率の良いファミリーであるProductAEsを構築する。
我々は、パラメータのコード(100,225)$とパラメータの中間長コード(196,441)$に対して、SNR(Signal-to-noise ratio)のあらゆる範囲において、大きな利得を示す。
- 参考スコア(独自算出の注目度): 9.118706387430885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There have been significant research activities in recent years to automate
the design of channel encoders and decoders via deep learning. Due the
dimensionality challenge in channel coding, it is prohibitively complex to
design and train relatively large neural channel codes via deep learning
techniques. Consequently, most of the results in the literature are limited to
relatively short codes having less than 100 information bits. In this paper, we
construct ProductAEs, a computationally efficient family of deep-learning
driven (encoder, decoder) pairs, that aim at enabling the training of
relatively large channel codes (both encoders and decoders) with a manageable
training complexity. We build upon the ideas from classical product codes, and
propose constructing large neural codes using smaller code components. More
specifically, instead of directly training the encoder and decoder for a large
neural code of dimension $k$ and blocklength $n$, we provide a framework that
requires training neural encoders and decoders for the code parameters
$(k_1,n_1)$ and $(k_2,n_2)$ such that $k_1 k_2=k$ and $n_1 n_2=n$. Our training
results show significant gains, over all ranges of signal-to-noise ratio (SNR),
for a code of parameters $(100,225)$ and a moderate-length code of parameters
$(196,441)$, over polar codes under successive cancellation (SC) decoder.
Moreover, our results demonstrate meaningful gains over Turbo Autoencoder
(TurboAE) and state-of-the-art classical codes. This is the first work to
design product autoencoders and a pioneering work on training large channel
codes.
- Abstract(参考訳): 近年、深層学習によるチャネルエンコーダとデコーダの設計を自動化するための研究が盛んに行われている。
チャネル符号化における次元的課題のため、ディープラーニング技術による比較的大きなニューラルチャネル符号の設計と訓練は極めて複雑である。
したがって、文献上の結果の大部分は、100ビット未満の情報ビットを持つ比較的短いコードに限られる。
本稿では、比較的大きなチャネル符号(エンコーダとデコーダの両方)を、管理可能な訓練複雑性でトレーニング可能にすることを目的とした、ディープラーニング駆動型(エンコーダ、デコーダ)ペアの計算効率の良いファミリーであるProductAEsを構築する。
我々は、古典的な製品コードからアイデアを構築し、より小さなコードコンポーネントを使って大きなニューラルコードを構築することを提案する。
具体的には、次元$k$とブロック長$n$の大規模なニューラルコードに対して、エンコーダとデコーダを直接トレーニングする代わりに、コードパラメータ$(k_1,n_1)$と$(k_2,n_2)$のニューラルエンコーダとデコーダをトレーニングする必要があるフレームワークを提供し、$k_1 k_2=k$と$n_1 n_2=n$である。
学習結果から,snr (signal-to-noise ratio) のすべての範囲において,パラメータ$(100,225)$ とパラメータ$(196,441)$ の適度な長さの符号に対して,連続キャンセル (sc) デコーダによる極性符号に対して有意な向上が認められた。
さらに,ターボオートエンコーダ (turboae) や最先端の古典符号よりも有意義な性能を示す。
これは製品オートエンコーダを設計する最初の作業であり、大規模なチャネルコードのトレーニングに関する先駆的な作業である。
関連論文リスト
- Decoding Quasi-Cyclic Quantum LDPC Codes [23.22566380210149]
量子低密度パリティチェック(qLDPC)符号は耐故障性を求める上で重要な要素である。
近年のqLDPC符号の進歩は、量子的に良好であり、線形時間デコーダが符号ワード量子ビットの一定数に影響を与える誤りを正すという構成に繋がった。
実際には、2つの繰り返し符号の産物である表面/履歴符号は依然としてqLDPC符号として選択されることが多い。
論文 参考訳(メタデータ) (2024-11-07T06:25:27Z) - Learning Linear Block Error Correction Codes [62.25533750469467]
本稿では,バイナリ線形ブロック符号の統一エンコーダデコーダトレーニングを初めて提案する。
また,コード勾配の効率的なバックプロパゲーションのために,自己注意マスキングを行うトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2024-05-07T06:47:12Z) - ProductAE: Toward Deep Learning Driven Error-Correction Codes of Large Dimensions [8.710629810511252]
Product Autoencoder (ProductAE) は、ディープラーニング駆動(エンコーダ、デコーダ)ペアの計算効率のよいファミリーである。
我々は、古典的な製品コードからアイデアを構築し、より小さなコードコンポーネントを使って大きなニューラルコードを構築することを提案する。
トレーニング結果は,有意義なパフォーマンス向上を伴う,$k = 300$bitsの大きさのProductAEsのトレーニングに成功したことを示す。
論文 参考訳(メタデータ) (2023-03-29T03:10:09Z) - Machine Learning-Aided Efficient Decoding of Reed-Muller Subcodes [59.55193427277134]
Reed-Muller (RM) 符号は、一般的なバイナリインプットメモリレス対称チャネルの容量を達成する。
RM符号は制限されたレートのみを許容する。
効率的なデコーダは、RM符号に対して有限長で利用可能である。
論文 参考訳(メタデータ) (2023-01-16T04:11:14Z) - Optimizing Serially Concatenated Neural Codes with Classical Decoders [8.692972779213932]
従来の復号アルゴリズムが非自明な実数値ニューラルコードに適用されていることを示す。
BCJRアルゴリズムは完全に微分可能であるので、エンドツーエンドでニューラルエンコーダのトレーニングや微調整が可能である。
論文 参考訳(メタデータ) (2022-12-20T15:40:08Z) - A Scalable Graph Neural Network Decoder for Short Block Codes [49.25571364253986]
エッジ重み付きグラフニューラルネットワーク(EW-GNN)に基づく短絡符号の復号化アルゴリズムを提案する。
EW-GNNデコーダは、繰り返しメッセージパッシング構造を持つタナーグラフで動作する。
EW-GNNデコーダは,復号誤り率の観点から,BP法および深層学習に基づくBP法より優れていることを示す。
論文 参考訳(メタデータ) (2022-11-13T17:13:12Z) - Tackling Long Code Search with Splitting, Encoding, and Aggregating [67.02322603435628]
長いコード検索のための新しいベースラインSEA(Split, Encode, Aggregate)を提案する。
長いコードをコードブロックに分割し、これらのブロックを埋め込みにエンコードし、それらを集約して包括的な長いコード表現を得る。
エンコーダとしてGraphCodeBERTを使用すると、SEAはコードSearchNetベンチマークでGraphCodeBERTよりも10.1%高い0.785という総合的な平均逆ランキングスコアを達成する。
論文 参考訳(メタデータ) (2022-08-24T02:27:30Z) - Graph Neural Networks for Channel Decoding [71.15576353630667]
低密度パリティチェック(LDPC)やBCH符号など、様々な符号化方式の競合復号性能を示す。
ニューラルネットワーク(NN)は、与えられたグラフ上で一般化されたメッセージパッシングアルゴリズムを学習する。
提案するデコーダを,従来のチャネル復号法および最近のディープラーニングに基づく結果と比較した。
論文 参考訳(メタデータ) (2022-07-29T15:29:18Z) - KO codes: Inventing Nonlinear Encoding and Decoding for Reliable
Wireless Communication via Deep-learning [76.5589486928387]
ランドマークコードは、Reed-Muller、BCH、Convolution、Turbo、LDPC、Polarといった信頼性の高い物理層通信を支える。
本論文では、ディープラーニング駆動型(エンコーダ、デコーダ)ペアの計算効率の良いファミリーであるKO符号を構築する。
KO符号は最先端のリード・ミュラー符号と極符号を破り、低複雑さの逐次復号法で復号された。
論文 参考訳(メタデータ) (2021-08-29T21:08:30Z) - Cyclically Equivariant Neural Decoders for Cyclic Codes [33.63188063525036]
循環不変性を利用して,循環符号のニューラルデコーダを提案する。
当社の新しいデコーダは、サイクル符号のデコード時に、従来のニューラルデコーダを一貫して上回る性能を発揮します。
最後に,BCH符号と句読込みRM符号の復号誤差確率を大幅に低減できるリスト復号手順を提案する。
論文 参考訳(メタデータ) (2021-05-12T09:41:13Z) - General tensor network decoding of 2D Pauli codes [0.0]
パウリ雑音を受ける2次元安定化器とサブシステム符号の最大確率復号を近似した復号器を提案する。
3つのノイズモデルの下で4つの符号のクラスを研究することにより,このデコーダのパワーを数値的に実証する。
我々はデコーダによって得られる閾値が最先端であり、利用可能な最適しきい値と数値的に一致していることを示す。
論文 参考訳(メタデータ) (2021-01-11T19:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。