論文の概要: Deep Extended Feedback Codes
- arxiv url: http://arxiv.org/abs/2105.01365v1
- Date: Tue, 4 May 2021 08:41:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-05 12:43:29.706661
- Title: Deep Extended Feedback Codes
- Title(参考訳): 深い拡張されたフィードバックコード
- Authors: Anahid Robert Safavi, Alberto G. Perotti, Branislav M. Popovic, Mahdi
Boloursaz Mashhadi, Deniz Gunduz
- Abstract要約: DEFアーキテクチャのエンコーダは情報メッセージを送信し、その後にパリティシンボルのシーケンスが続く。
DEFコードはDeepcodeをいくつかの方法で一般化し、より良いエラー修正機能を提供します。
性能評価では、DEF符号はフィードバックのあるチャンネルの他のDNN符号よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 9.112162560071937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A new deep-neural-network (DNN) based error correction encoder architecture
for channels with feedback, called Deep Extended Feedback (DEF), is presented
in this paper. The encoder in the DEF architecture transmits an information
message followed by a sequence of parity symbols which are generated based on
the message as well as the observations of the past forward channel outputs
sent to the transmitter through a feedback channel. DEF codes generalize
Deepcode [1] in several ways: parity symbols are generated based on
forward-channel output observations over longer time intervals in order to
provide better error correction capability; and high-order modulation formats
are deployed in the encoder so as to achieve increased spectral efficiency.
Performance evaluations show that DEF codes have better performance compared to
other DNN-based codes for channels with feedback.
- Abstract(参考訳): 本稿では,dnn(deep-neural-network)ベースのフィードバック付きチャネル用誤り訂正エンコーダアーキテクチャであるdeep extended feedback(def)について述べる。
defアーキテクチャのエンコーダは、メッセージに基づいて生成されたパリティシンボルのシーケンスに続いて情報メッセージを送信するとともに、フィードバックチャネルを介して送信者に送信された過去のフォワードチャネル出力の観察を行う。
DEF符号はいくつかの方法でDeepcode [1]を一般化する: 誤り訂正能力を向上させるために、より長い時間間隔で前方チャネル出力観測に基づいてパリティシンボルを生成し、スペクトル効率を高めるために高次変調フォーマットをエンコーダに配置する。
性能評価では、DEF符号はフィードバックのあるチャンネルの他のDNN符号よりも優れた性能を示す。
関連論文リスト
- Factor Graph Optimization of Error-Correcting Codes for Belief Propagation Decoding [62.25533750469467]
低密度パリティ・チェック (LDPC) コードは、他の種類のコードに対していくつかの利点がある。
提案手法は,既存の人気符号の復号性能を桁違いに向上させる。
論文 参考訳(メタデータ) (2024-06-09T12:08:56Z) - Learning Linear Block Error Correction Codes [62.25533750469467]
本稿では,バイナリ線形ブロック符号の統一エンコーダデコーダトレーニングを初めて提案する。
また,コード勾配の効率的なバックプロパゲーションのために,自己注意マスキングを行うトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2024-05-07T06:47:12Z) - Joint Channel Estimation and Feedback with Masked Token Transformers in
Massive MIMO Systems [74.52117784544758]
本稿では,CSI行列内の固有周波数領域相関を明らかにするエンコーダデコーダに基づくネットワークを提案する。
エンコーダ・デコーダネットワーク全体がチャネル圧縮に使用される。
提案手法は,共同作業における現状のチャネル推定およびフィードバック技術より優れる。
論文 参考訳(メタデータ) (2023-06-08T06:15:17Z) - Robust Non-Linear Feedback Coding via Power-Constrained Deep Learning [7.941112438865385]
我々は,チャネルノイズに対するロバスト性を大幅に向上させる非線形フィードバック符号の新たなファミリーを開発する。
我々のオートエンコーダベースのアーキテクチャは、連続するビットブロックに基づいてコードを学ぶように設計されている。
提案手法は, 現実的なフォワードやフィードバックノイズシステムよりも, 最先端のフィードバックコードよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-25T22:21:26Z) - Deep Joint Source-Channel Coding with Iterative Source Error Correction [11.41076729592696]
深層学習に基づくジョイントソースチャネル符号(Deep J SCC)に対する反復的ソース誤り訂正(ISEC)復号法を提案する。
チャネルを通じて受信されたノイズワードに対して、Deep J SCCエンコーダとデコーダペアを使用して、コードを反復的に更新する。
提案手法は, チャネルノイズ特性がトレーニング時に使用するものと一致しない場合に, ベースラインよりも信頼性の高いソース再構成結果を生成する。
論文 参考訳(メタデータ) (2023-02-17T22:50:58Z) - A Scalable Graph Neural Network Decoder for Short Block Codes [49.25571364253986]
エッジ重み付きグラフニューラルネットワーク(EW-GNN)に基づく短絡符号の復号化アルゴリズムを提案する。
EW-GNNデコーダは、繰り返しメッセージパッシング構造を持つタナーグラフで動作する。
EW-GNNデコーダは,復号誤り率の観点から,BP法および深層学習に基づくBP法より優れていることを示す。
論文 参考訳(メタデータ) (2022-11-13T17:13:12Z) - Feedback is Good, Active Feedback is Better: Block Attention Active
Feedback Codes [13.766611137136168]
GBAF符号は、アクティブなフィードバックを持つチャネルでも使用できることを示す。
送信機と受信機にトランスフォーマーアーキテクチャを実装し,相互に順次対話する。
我々は,特に低SNR体制下で,最先端のBLER性能を実現する。
論文 参考訳(メタデータ) (2022-11-03T11:44:06Z) - Denoising Diffusion Error Correction Codes [92.10654749898927]
近年、ニューラルデコーダは古典的デコーダ技術に対する優位性を実証している。
最近の最先端のニューラルデコーダは複雑で、多くのレガシデコーダの重要な反復的スキームが欠如している。
本稿では,任意のブロック長の線形符号のソフトデコードにデノナイズ拡散モデルを適用することを提案する。
論文 参考訳(メタデータ) (2022-09-16T11:00:50Z) - Graph Neural Networks for Channel Decoding [71.15576353630667]
低密度パリティチェック(LDPC)やBCH符号など、様々な符号化方式の競合復号性能を示す。
ニューラルネットワーク(NN)は、与えられたグラフ上で一般化されたメッセージパッシングアルゴリズムを学習する。
提案するデコーダを,従来のチャネル復号法および最近のディープラーニングに基づく結果と比較した。
論文 参考訳(メタデータ) (2022-07-29T15:29:18Z) - DRF Codes: Deep SNR-Robust Feedback Codes [2.6074034431152344]
本稿では,DNN(Deep-neural-network)に基づく誤り訂正符号を提案する。
付加的な白色ガウス雑音 (AWGN) チャネルにおけるSNR損耗率と誤り率の両面から, DRF符号の精度は, 高い結果が得られた。
論文 参考訳(メタデータ) (2021-12-22T10:47:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。