論文の概要: Boost decoding performance of finite geometry LDPC codes with deep
learning tactics
- arxiv url: http://arxiv.org/abs/2205.00481v1
- Date: Sun, 1 May 2022 14:41:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 16:02:42.837437
- Title: Boost decoding performance of finite geometry LDPC codes with deep
learning tactics
- Title(参考訳): 深層学習による有限幾何ldpc符号の復号化性能向上
- Authors: Guangwen Li, Xiao Yu
- Abstract要約: 有限幾何LDPC符号のクラスに対して,低複雑かつ高性能なデコーダを求める。
高品質なトレーニングデータを効果的に生成する方法について詳述する。
- 参考スコア(独自算出の注目度): 3.1519370595822274
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: It was known a standard min-sum decoder can be unrolled as a neural network
after weighting each edges. We adopt the similar decoding framework to seek a
low-complexity and high-performance decoder for a class of finite geometry LDPC
codes in short and moderate block lengths. It is elaborated on how to generate
high-quality training data effectively, and the strong link is illustrated
between training loss and the bit error rate of a neural decoder after tracing
the evolution curves. Considering there exists a potential conflict between the
neural networks and the error-correction decoders in terms of their objectives,
the necessity of restraining the number of trainable parameters to ensure
training convergence or reduce decoding complexity is highlighted.
Consequently, for the referred LDPC codes, their rigorous algebraic structure
promotes the feasibility of cutting down the number of trainable parameters
even to only one, whereas incurring marginal performance loss in the
simulation.
- Abstract(参考訳): 標準のmin-sumデコーダは、各エッジを重み付けした後、ニューラルネットワークとして展開できることが知られていた。
類似のデコーディングフレームワークを用いて,短小および中小ブロック長の有限幾何ldpc符号のクラスに対して,低複雑で高性能なデコーダを求める。
高品質なトレーニングデータを効果的に生成する方法を詳述し,進化曲線を追跡した神経デコーダのトレーニング損失とビット誤り率との間に強い相関関係を示す。
ニューラルネットワークとエラー訂正デコーダの間には、目的の観点から潜在的な衝突が存在するため、トレーニング収束を保証するためにトレーニング可能なパラメータの数を抑える必要性が強調される。
その結果、LDPC符号の厳密な代数構造は、トレーニング可能なパラメータの数を1つに減らし、シミュレーションにおける限界性能損失を生じさせる可能性がある。
関連論文リスト
- Learned layered coding for Successive Refinement in the Wyner-Ziv
Problem [18.134147308944446]
本稿では,連続したソースのプログレッシブエンコーディングを明示的に学習するためのデータ駆動型アプローチを提案する。
この設定は、Wyner-Ziv符号問題の連続的な改善を指す。
我々は、RNNがスケーラブルなネスト量子化と同様の層状ビニングソリューションを明示的に検索できることを実証した。
論文 参考訳(メタデータ) (2023-11-06T12:45:32Z) - Graph Neural Networks for Enhanced Decoding of Quantum LDPC Codes [6.175503577352742]
量子低密度パリティチェック(LDPC)符号に対する微分可能な反復デコーダを提案する。
提案アルゴリズムは,古典的信念伝達(BP)復号段階と中間グラフニューラルネットワーク(GNN)層から構成される。
論文 参考訳(メタデータ) (2023-10-26T19:56:25Z) - Boosting Learning for LDPC Codes to Improve the Error-Floor Performance [16.297253625958174]
本稿では,ニューラルミンサムデコーダ(NMS)のトレーニング手法を提案する。
異なる重み付けを不満足なチェックノードに割り当てることで、最小限の重み付けでエラーフロアを効果的に低減できることを示す。
提案したNMSデコーダは、余分なハードウェアコストを発生させることなく、既存のLDPCデコーダに統合することができる。
論文 参考訳(メタデータ) (2023-10-11T05:05:40Z) - A Cryogenic Memristive Neural Decoder for Fault-tolerant Quantum Error Correction [0.0]
インメモリ・クロスバー(IMC)アーキテクチャに基づくニューラルデコーダの設計と解析を行う。
ハードウェアを意識したリトレーニング手法を開発し、フィデリティ損失を軽減する。
この研究は、フォールトトレラントQECの統合のためのスケーラブルで高速で低消費電力のMCCハードウェアへの経路を提供する。
論文 参考訳(メタデータ) (2023-07-18T17:46:33Z) - Neural Belief Propagation Decoding of Quantum LDPC Codes Using
Overcomplete Check Matrices [60.02503434201552]
元のチェック行列における行の線形結合から生成された冗長な行を持つチェック行列に基づいてQLDPC符号を復号する。
このアプローチは、非常に低い復号遅延の利点を付加して、復号性能を著しく向上させる。
論文 参考訳(メタデータ) (2022-12-20T13:41:27Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Graph Neural Networks for Channel Decoding [71.15576353630667]
低密度パリティチェック(LDPC)やBCH符号など、様々な符号化方式の競合復号性能を示す。
ニューラルネットワーク(NN)は、与えられたグラフ上で一般化されたメッセージパッシングアルゴリズムを学習する。
提案するデコーダを,従来のチャネル復号法および最近のディープラーニングに基づく結果と比較した。
論文 参考訳(メタデータ) (2022-07-29T15:29:18Z) - CodeRL: Mastering Code Generation through Pretrained Models and Deep
Reinforcement Learning [92.36705236706678]
CodeRLは、事前訓練されたLMと深層強化学習によるプログラム合成タスクのための新しいフレームワークである。
推論中、我々は重要なサンプリング戦略を持つ新しい生成手順を導入する。
モデルバックボーンについては,CodeT5のエンコーダデコーダアーキテクチャを拡張し,学習目標を拡張した。
論文 参考訳(メタデータ) (2022-07-05T02:42:15Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - Rate Distortion Characteristic Modeling for Neural Image Compression [59.25700168404325]
エンドツーエンドの最適化機能は、ニューラルイメージ圧縮(NIC)の優れた損失圧縮性能を提供する。
異なるモデルは、R-D空間の異なる点に到達するために訓練される必要がある。
深層ネットワークと統計モデルを用いてNICのR-D挙動を記述するために,本質的な数学的関数の定式化に努めている。
論文 参考訳(メタデータ) (2021-06-24T12:23:05Z) - FAID Diversity via Neural Networks [23.394836086114413]
LDPC(Low-Density Parity Check)符号のための有限アルファベット反復デコーダ(FAID)のデコーダの多様性を設計する新しいアプローチを提案する。
提案するデコーダの多様性は、繰り返し量子化ニューラルネットワーク(RQNN)をトレーニングしてFAIDを学習・設計することで達成される。
論文 参考訳(メタデータ) (2021-05-10T05:14:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。