論文の概要: On the Optimality of Single-label and Multi-label Neural Network Decoders
- arxiv url: http://arxiv.org/abs/2503.18758v1
- Date: Mon, 24 Mar 2025 15:07:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:33:34.128861
- Title: On the Optimality of Single-label and Multi-label Neural Network Decoders
- Title(参考訳): シングルラベル・マルチラベルニューラルネットワークデコーダの最適性について
- Authors: Yunus Can Gültekin, Péter Scheepers, Yuncheng Yuan, Federico Corradi, Alex Alvarado,
- Abstract要約: SLNN と MLNN のアーキテクチャは,コードに関係なく,常に最適な復号化を実現可能であることを示す。
提案したアーキテクチャは実際にはNNではなく、最大極大復号法を実装する別の方法である。
- 参考スコア(独自算出の注目度): 4.05717466654181
- License:
- Abstract: We investigate the design of two neural network (NN) architectures recently proposed as decoders for forward error correction: the so-called single-label NN (SLNN) and multi-label NN (MLNN) decoders. These decoders have been reported to achieve near-optimal codeword- and bit-wise performance, respectively. Results in the literature show near-optimality for a variety of short codes. In this paper, we analytically prove that certain SLNN and MLNN architectures can, in fact, always realize optimal decoding, regardless of the code. These optimal architectures and their binary weights are shown to be defined by the codebook, i.e., no training or network optimization is required. Our proposed architectures are in fact not NNs, but a different way of implementing the maximum likelihood decoding rule. Optimal performance is numerically demonstrated for Hamming $(7,4)$, Polar $(16,8)$, and BCH $(31,21)$ codes. The results show that our optimal architectures are less complex than the SLNN and MLNN architectures proposed in the literature, which in fact only achieve near-optimal performance. Extension to longer codes is still hindered by the curse of dimensionality. Therefore, even though SLNN and MLNN can perform maximum likelihood decoding, such architectures cannot be used for medium and long codes.
- Abstract(参考訳): 本稿では,2つのニューラルネットワーク(NN)アーキテクチャを前方誤り訂正のためのデコーダとして提案した,いわゆるシングルラベルNN(SLNN)とマルチラベルNN(MLNN)デコーダの設計について検討する。
これらのデコーダは、それぞれほぼ最適のコードワードとビットワイドのパフォーマンスを達成すると報告されている。
文献では、様々な短いコードに対してほぼ最適であることが示されている。
本稿では,あるSLNNアーキテクチャとMLNNアーキテクチャが,コードに関係なく,常に最適な復号化を実現可能であることを解析的に証明する。
これらの最適アーキテクチャとそのバイナリ重み付けは、コードブックによって定義されている。
提案したアーキテクチャは実際にはNNではなく、最大極大復号法を実装する別の方法である。
最適性能は、ハミング$(7,4)、ポーラ$(16,8)、BCH$(31,21)で数値的に示される。
その結果,我々の最適アーキテクチャは,文献で提案されているSLNNアーキテクチャやMLNNアーキテクチャよりも複雑ではないことが明らかとなった。
長いコードへの拡張は、いまだに次元性の呪いによって妨げられている。
したがって、SLNNとMLNNは最大極大復号を行うことができるが、そのようなアーキテクチャは中長期の符号には使用できない。
関連論文リスト
- GNN-based Auto-Encoder for Short Linear Block Codes: A DRL Approach [43.17241175857862]
深層強化学習(DRL)とグラフニューラルネットワーク(GNN)をコード設計に統合する。
エッジ重み付きGNN(EW-GNN)デコーダを提案する。
DRLベースのコードデザイナとEW-GNNデコーダの反復的な共同訓練を行い、エンドエンドエンコーディングとデコード処理を最適化する。
論文 参考訳(メタデータ) (2024-12-03T00:25:14Z) - On the Design and Performance of Machine Learning Based Error Correcting Decoders [3.8289109929360245]
まず, 単一ラベル型ニューラルネットワーク (SLNN) とマルチラベル型ニューラルネットワーク (MLNN) のデコーダについて検討した。
次に、エラー訂正符号変換器(ECCT)とクロスアテンションメッセージパッシング変換器(CrossMPT)という、2つのトランスフォーマーベースのデコーダに注目します。
論文 参考訳(メタデータ) (2024-10-21T11:23:23Z) - Do Not Train It: A Linear Neural Architecture Search of Graph Neural
Networks [15.823247346294089]
ニューラルアーキテクチャコーディング(NAC)という新しいNAS-GNN法を開発した。
当社のアプローチでは,最先端のパフォーマンスを実現しています。そのパフォーマンスは,強いベースラインよりも200倍高速で,18.8%の精度で実現しています。
論文 参考訳(メタデータ) (2023-05-23T13:44:04Z) - A Scalable Graph Neural Network Decoder for Short Block Codes [49.25571364253986]
エッジ重み付きグラフニューラルネットワーク(EW-GNN)に基づく短絡符号の復号化アルゴリズムを提案する。
EW-GNNデコーダは、繰り返しメッセージパッシング構造を持つタナーグラフで動作する。
EW-GNNデコーダは,復号誤り率の観点から,BP法および深層学習に基づくBP法より優れていることを示す。
論文 参考訳(メタデータ) (2022-11-13T17:13:12Z) - Graph Neural Networks for Channel Decoding [71.15576353630667]
低密度パリティチェック(LDPC)やBCH符号など、様々な符号化方式の競合復号性能を示す。
ニューラルネットワーク(NN)は、与えられたグラフ上で一般化されたメッセージパッシングアルゴリズムを学習する。
提案するデコーダを,従来のチャネル復号法および最近のディープラーニングに基づく結果と比較した。
論文 参考訳(メタデータ) (2022-07-29T15:29:18Z) - Masked Bayesian Neural Networks : Computation and Optimality [1.3649494534428745]
そこで本稿では, 適切な複雑性を伴って, 優れた深層ニューラルネットワークを探索する, スパースベイズニューラルネットワーク(BNN)を提案する。
我々は各ノードのマスキング変数を用いて、後続分布に応じていくつかのノードをオフにし、ノードワイズDNNを生成する。
いくつかのベンチマークデータセットを解析することにより,提案したBNNが既存手法と比較してよく動作することを示す。
論文 参考訳(メタデータ) (2022-06-02T02:59:55Z) - Automatic Mapping of the Best-Suited DNN Pruning Schemes for Real-Time
Mobile Acceleration [71.80326738527734]
本稿では,汎用的,きめ細かな構造化プルーニング手法とコンパイラの最適化を提案する。
提案手法は,より微細な構造化プルーニング手法とともに,最先端のDNN最適化フレームワークよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-22T23:53:14Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。