論文の概要: Neural Window Decoder for SC-LDPC Codes
- arxiv url: http://arxiv.org/abs/2411.19092v1
- Date: Thu, 28 Nov 2024 12:13:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:18:25.681552
- Title: Neural Window Decoder for SC-LDPC Codes
- Title(参考訳): SC-LDPC符号のためのニューラルウィンドウデコーダ
- Authors: Dae-Young Yun, Hee-Youl Kwak, Yongjune Kim, Sang-Hyo Kim, Jong-Seon No,
- Abstract要約: 空間結合型低密度パリティチェック(SC-LDPC)符号のためのニューラルウインドウデコーダ(NWD)を提案する。
NWDの重みをトレーニングするために,2つの新しいトレーニング戦略を導入する。
また、SC-LDPC符号に固有の誤り伝搬問題を補足重みを配置することで解決する。
- 参考スコア(独自算出の注目度): 15.190674451882964
- License:
- Abstract: In this paper, we propose a neural window decoder (NWD) for spatially coupled low-density parity-check (SC-LDPC) codes. The proposed NWD retains the conventional window decoder (WD) process but incorporates trainable neural weights. To train the weights of NWD, we introduce two novel training strategies. First, we restrict the loss function to target variable nodes (VNs) of the window, which prunes the neural network and accordingly enhances training efficiency. Second, we employ the active learning technique with a normalized loss term to prevent the training process from biasing toward specific training regions. Next, we develop a systematic method to derive non-uniform schedules for the NWD based on the training results. We introduce trainable damping factors that reflect the relative importance of check node (CN) updates. By skipping updates with less importance, we can omit $\mathbf{41\%}$ of CN updates without performance degradation compared to the conventional WD. Lastly, we address the error propagation problem inherent in SC-LDPC codes by deploying a complementary weight set, which is activated when an error is detected in the previous window. This adaptive decoding strategy effectively mitigates error propagation without requiring modifications to the code and decoder structures.
- Abstract(参考訳): 本稿では,空間結合型低密度パリティチェック(SC-LDPC)のためのニューラルウィンドウデコーダ(NWD)を提案する。
提案したNWDは、従来のウインドウデコーダ(WD)プロセスを維持しているが、トレーニング可能なニューラルウェイトを組み込んでいる。
NWDの重みをトレーニングするために,2つの新しいトレーニング戦略を導入する。
まず、損失関数をウィンドウのターゲット変数ノード(VN)に制限する。
第2に、トレーニングプロセスが特定のトレーニング領域に偏りを生じないように、正規化損失項を持つアクティブラーニング手法を用いる。
次に、トレーニング結果に基づいて、NWDの非一様スケジュールを導出する体系的手法を開発する。
チェックノード(CN)更新の相対的重要性を反映したトレーニング可能な減衰因子を導入する。
あまり重要でないアップデートをスキップすることで、従来のWDと比べてパフォーマンスが劣化することなく、$\mathbf{41\%}$のCNアップデートを省略できる。
最後に,SC-LDPC符号に固有の誤り伝搬問題に対して,前のウィンドウでエラーが検出された場合に起動される補足重みセットを配置することによって対処する。
この適応デコード戦略は、コードやデコーダ構造の変更を必要とせずに、エラーの伝播を効果的に軽減する。
関連論文リスト
- Boosting Learning for LDPC Codes to Improve the Error-Floor Performance [16.297253625958174]
本稿では,ニューラルミンサムデコーダ(NMS)のトレーニング手法を提案する。
異なる重み付けを不満足なチェックノードに割り当てることで、最小限の重み付けでエラーフロアを効果的に低減できることを示す。
提案したNMSデコーダは、余分なハードウェアコストを発生させることなく、既存のLDPCデコーダに統合することができる。
論文 参考訳(メタデータ) (2023-10-11T05:05:40Z) - Fixing the NTK: From Neural Network Linearizations to Exact Convex
Programs [63.768739279562105]
学習目標に依存しない特定のマスクウェイトを選択する場合、このカーネルはトレーニングデータ上のゲートReLUネットワークのNTKと等価であることを示す。
この目標への依存の欠如の結果として、NTKはトレーニングセット上の最適MKLカーネルよりもパフォーマンスが良くない。
論文 参考訳(メタデータ) (2023-09-26T17:42:52Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Learning k-Level Structured Sparse Neural Networks Using Group Envelope Regularization [4.0554893636822]
制約のあるリソースに大規模ディープニューラルネットワークをデプロイするための新しいアプローチを導入する。
この手法は推論時間を短縮し、メモリ需要と消費電力を減らすことを目的とする。
論文 参考訳(メタデータ) (2022-12-25T15:40:05Z) - Learning in Feedback-driven Recurrent Spiking Neural Networks using
full-FORCE Training [4.124948554183487]
本稿では,トレーニング中にのみ第2のネットワークを導入するRSNNの教師付きトレーニング手順を提案する。
提案したトレーニング手順は、リカレント層とリードアウト層の両方のターゲットを生成することで構成される。
本研究では,8つの力学系をモデル化するためのフルFORCEトレーニング手法の性能向上とノイズ堅牢性を示す。
論文 参考訳(メタデータ) (2022-05-26T19:01:19Z) - Boost decoding performance of finite geometry LDPC codes with deep
learning tactics [3.1519370595822274]
有限幾何LDPC符号のクラスに対して,低複雑かつ高性能なデコーダを求める。
高品質なトレーニングデータを効果的に生成する方法について詳述する。
論文 参考訳(メタデータ) (2022-05-01T14:41:16Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - FitAct: Error Resilient Deep Neural Networks via Fine-Grained
Post-Trainable Activation Functions [0.05249805590164901]
ディープニューラルネットワーク(DNN)は、パーソナルヘルスケアデバイスや自動運転車などの安全クリティカルなシステムにますます導入されている。
本稿では,DNNの微粒化後のアクティベーション機能を実装することで,DNNのエラーレジリエンスを高めるための低コストなアプローチであるFitActを提案する。
論文 参考訳(メタデータ) (2021-12-27T07:07:50Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。