論文の概要: Concatenated Classic and Neural (CCN) Codes: ConcatenatedAE
- arxiv url: http://arxiv.org/abs/2209.01701v2
- Date: Fri, 31 Mar 2023 07:56:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 20:45:22.233086
- Title: Concatenated Classic and Neural (CCN) Codes: ConcatenatedAE
- Title(参考訳): Concatenated Classic and Neural (CCN) Codes: ConcatenatedAE
- Authors: Onur G\"unl\"u, Rick Fritschek, Rafael F. Schaefer
- Abstract要約: 小型ニューラルネットワーク(NN)は、古典的なチャネルコードを改善し、チャネルモデルの変更に対処する。
我々は、同じNNを複数回符号化した後、外部の古典コードと直列結合することで、そのような構造のコード次元を拡大する。
- 参考スコア(独自算出の注目度): 26.439872224667987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Small neural networks (NNs) used for error correction were shown to improve
on classic channel codes and to address channel model changes. We extend the
code dimension of any such structure by using the same NN under one-hot
encoding multiple times, then serially-concatenated with an outer classic code.
We design NNs with the same network parameters, where each Reed-Solomon
codeword symbol is an input to a different NN. Significant improvements in
block error probabilities for an additive Gaussian noise channel as compared to
the small neural code are illustrated, as well as robustness to channel model
changes.
- Abstract(参考訳): 誤り訂正に使用される小さなニューラルネットワーク(NN)は、古典的なチャネルコードを改善し、チャネルモデルの変更に対処する。
我々は、同じNNを複数回符号化した後、外部の古典コードと直列結合することで、そのような構造のコード次元を拡大する。
我々は同じネットワークパラメータを持つNNを設計し、各Reed-Solomon符号は異なるNNへの入力となる。
付加的なガウス雑音流路におけるブロック誤差確率の小さなニューラルコードと比較しての顕著な改善と、チャネルモデルの変化に対するロバスト性を示す。
関連論文リスト
- On the Design and Performance of Machine Learning Based Error Correcting Decoders [3.8289109929360245]
まず, 単一ラベル型ニューラルネットワーク (SLNN) とマルチラベル型ニューラルネットワーク (MLNN) のデコーダについて検討した。
次に、エラー訂正符号変換器(ECCT)とクロスアテンションメッセージパッシング変換器(CrossMPT)という、2つのトランスフォーマーベースのデコーダに注目します。
論文 参考訳(メタデータ) (2024-10-21T11:23:23Z) - Semantics Alignment via Split Learning for Resilient Multi-User Semantic
Communication [56.54422521327698]
最近の意味コミュニケーションの研究は、ディープジョイントソースやチャネルコーディング(DeepJSCC)のようなニューラルネットワーク(NN)ベースのトランシーバに依存している。
従来のトランシーバとは異なり、これらのニューラルトランシーバは実際のソースデータとチャネルを使用してトレーニング可能であり、セマンティクスを抽出し通信することができる。
本稿では,分割学習(SL)と部分的NN微調整技術を活用する分散学習ベースソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-13T20:29:55Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Applications of Lattice Gauge Equivariant Neural Networks [0.0]
格子ゲージ同変畳み込みニューラルネットワーク(L-CNN)
L-CNNは従来のニューラルネットワークよりも、異なるサイズの格子をより一般化することができる。
我々はL-CNNのWilsonフローや連続正規化フローへの応用の可能性について述べる。
論文 参考訳(メタデータ) (2022-12-01T19:32:42Z) - A Scalable Graph Neural Network Decoder for Short Block Codes [49.25571364253986]
エッジ重み付きグラフニューラルネットワーク(EW-GNN)に基づく短絡符号の復号化アルゴリズムを提案する。
EW-GNNデコーダは、繰り返しメッセージパッシング構造を持つタナーグラフで動作する。
EW-GNNデコーダは,復号誤り率の観点から,BP法および深層学習に基づくBP法より優れていることを示す。
論文 参考訳(メタデータ) (2022-11-13T17:13:12Z) - Spiking Neural Network Decision Feedback Equalization [70.3497683558609]
決定フィードバック等化器(DFE)に似たフィードバック構造を持つSNNベースの等化器を提案する。
提案手法は,3種類の模範チャネルに対して,従来の線形等化器よりも明らかに優れていることを示す。
決定フィードバック構造を持つSNNは、競合エネルギー効率の良いトランシーバへのパスを可能にする。
論文 参考訳(メタデータ) (2022-11-09T09:19:15Z) - Graph Neural Networks for Channel Decoding [71.15576353630667]
低密度パリティチェック(LDPC)やBCH符号など、様々な符号化方式の競合復号性能を示す。
ニューラルネットワーク(NN)は、与えられたグラフ上で一般化されたメッセージパッシングアルゴリズムを学習する。
提案するデコーダを,従来のチャネル復号法および最近のディープラーニングに基づく結果と比較した。
論文 参考訳(メタデータ) (2022-07-29T15:29:18Z) - Hybrid Neural Coded Modulation: Design and Training Methods [16.778378666167026]
内部コードはディープニューラルネットワーク(DNN)を使用して設計されており、チャネル符号化されたビットを取り込み、変調されたシンボルを出力する。
得られた星座は5G標準LDPC符号で変調順序16,64の従来の2次振幅変調(QAM)に基づく符号化方式よりも優れていた。
論文 参考訳(メタデータ) (2022-02-04T05:04:15Z) - Channel Equilibrium Networks for Learning Deep Representation [63.76618960820138]
この研究は正規化と正則線型関数の組み合わせがチャネルを阻害することを示している。
阻害されたチャネルを単に取り除いた先行技術とは異なり、我々は、新しいニューラルネットワークビルディングブロックを設計することで、トレーニング中に「目を覚ます」ことを提案する。
Channel Equilibrium (CE) ブロックは、同じレイヤのチャネルが学習した表現に等しく寄与することを可能にする。
論文 参考訳(メタデータ) (2020-02-29T09:02:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。