論文の概要: GNN-based Auto-Encoder for Short Linear Block Codes: A DRL Approach
- arxiv url: http://arxiv.org/abs/2412.02053v1
- Date: Tue, 03 Dec 2024 00:25:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:40:49.744876
- Title: GNN-based Auto-Encoder for Short Linear Block Codes: A DRL Approach
- Title(参考訳): 短い線形ブロック符号のためのGNNベースのオートエンコーダ:DRLアプローチ
- Authors: Kou Tian, Chentao Yue, Changyang She, Yonghui Li, Branka Vucetic,
- Abstract要約: 深層強化学習(DRL)とグラフニューラルネットワーク(GNN)をコード設計に統合する。
エッジ重み付きGNN(EW-GNN)デコーダを提案する。
DRLベースのコードデザイナとEW-GNNデコーダの反復的な共同訓練を行い、エンドエンドエンコーディングとデコード処理を最適化する。
- 参考スコア(独自算出の注目度): 43.17241175857862
- License:
- Abstract: This paper presents a novel auto-encoder based end-to-end channel encoding and decoding. It integrates deep reinforcement learning (DRL) and graph neural networks (GNN) in code design by modeling the generation of code parity-check matrices as a Markov Decision Process (MDP), to optimize key coding performance metrics such as error-rates and code algebraic properties. An edge-weighted GNN (EW-GNN) decoder is proposed, which operates on the Tanner graph with an iterative message-passing structure. Once trained on a single linear block code, the EW-GNN decoder can be directly used to decode other linear block codes of different code lengths and code rates. An iterative joint training of the DRL-based code designer and the EW-GNN decoder is performed to optimize the end-end encoding and decoding process. Simulation results show the proposed auto-encoder significantly surpasses several traditional coding schemes at short block lengths, including low-density parity-check (LDPC) codes with the belief propagation (BP) decoding and the maximum-likelihood decoding (MLD), and BCH with BP decoding, offering superior error-correction capabilities while maintaining low decoding complexity.
- Abstract(参考訳): 本稿では,自動エンコーダを用いたエンド・ツー・エンド・エンド・チャネル符号化とデコードを提案する。
深層強化学習(DRL)とグラフニューラルネットワーク(GNN)をマルコフ決定プロセス(MDP)としてコードパリティチェック行列の生成をモデル化してコード設計に統合し、エラー率やコード代数特性などの重要なコーディングパフォーマンス指標を最適化する。
エッジ重み付きGNN(EW-GNN)デコーダを提案する。
一度1つの線形ブロックコードで訓練すると、EW-GNNデコーダはコード長とコードレートの異なる他の線形ブロックコードを直接デコードすることができる。
DRLベースのコードデザイナとEW-GNNデコーダの反復的な共同訓練を行い、エンドエンドエンコーディングとデコード処理を最適化する。
シミュレーションの結果,提案するオートエンコーダは,低密度パリティチェック (LDPC) 符号と信念伝搬 (BP) 復号化 (MLD) ,BCHとBP復号化 (BCH) など,短いブロック長で従来の符号化方式を著しく上回り,低復号化複雑性を保ちながら誤り訂正能力に優れていた。
関連論文リスト
- Decoding Quantum LDPC Codes using Collaborative Check Node Removal [0.0]
協調的な手法を用いて反復デコーダの性能を向上させるための戦略を提案する。
我々は、ビット分離の概念を使い、それをqubit分離に一般化する。
これにより、QLDPC符号の有害な構成に対してデコーダの性能を分析し改善する指標が得られる。
論文 参考訳(メタデータ) (2025-01-14T11:41:45Z) - On the Design and Performance of Machine Learning Based Error Correcting Decoders [3.8289109929360245]
まず, 単一ラベル型ニューラルネットワーク (SLNN) とマルチラベル型ニューラルネットワーク (MLNN) のデコーダについて検討した。
次に、エラー訂正符号変換器(ECCT)とクロスアテンションメッセージパッシング変換器(CrossMPT)という、2つのトランスフォーマーベースのデコーダに注目します。
論文 参考訳(メタデータ) (2024-10-21T11:23:23Z) - Decoding Quantum LDPC Codes Using Graph Neural Networks [52.19575718707659]
グラフニューラルネットワーク(GNN)に基づく量子低密度パリティチェック(QLDPC)符号の新しい復号法を提案する。
提案したGNNベースのQLDPCデコーダは,QLDPC符号のスパースグラフ構造を利用して,メッセージパスデコーダとして実装することができる。
論文 参考訳(メタデータ) (2024-08-09T16:47:49Z) - Factor Graph Optimization of Error-Correcting Codes for Belief Propagation Decoding [62.25533750469467]
低密度パリティ・チェック (LDPC) コードは、他の種類のコードに対していくつかの利点がある。
提案手法は,既存の人気符号の復号性能を桁違いに向上させる。
論文 参考訳(メタデータ) (2024-06-09T12:08:56Z) - Learning Linear Block Error Correction Codes [62.25533750469467]
本稿では,バイナリ線形ブロック符号の統一エンコーダデコーダトレーニングを初めて提案する。
また,コード勾配の効率的なバックプロパゲーションのために,自己注意マスキングを行うトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2024-05-07T06:47:12Z) - A Scalable Graph Neural Network Decoder for Short Block Codes [49.25571364253986]
エッジ重み付きグラフニューラルネットワーク(EW-GNN)に基づく短絡符号の復号化アルゴリズムを提案する。
EW-GNNデコーダは、繰り返しメッセージパッシング構造を持つタナーグラフで動作する。
EW-GNNデコーダは,復号誤り率の観点から,BP法および深層学習に基づくBP法より優れていることを示す。
論文 参考訳(メタデータ) (2022-11-13T17:13:12Z) - Graph Neural Networks for Channel Decoding [71.15576353630667]
低密度パリティチェック(LDPC)やBCH符号など、様々な符号化方式の競合復号性能を示す。
ニューラルネットワーク(NN)は、与えられたグラフ上で一般化されたメッセージパッシングアルゴリズムを学習する。
提案するデコーダを,従来のチャネル復号法および最近のディープラーニングに基づく結果と比較した。
論文 参考訳(メタデータ) (2022-07-29T15:29:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。