論文の概要: Feedback is Good, Active Feedback is Better: Block Attention Active
Feedback Codes
- arxiv url: http://arxiv.org/abs/2211.01730v1
- Date: Thu, 3 Nov 2022 11:44:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 13:11:21.838112
- Title: Feedback is Good, Active Feedback is Better: Block Attention Active
Feedback Codes
- Title(参考訳): フィードバックは良い、アクティブなフィードバックは良い: 注意をブロックするアクティブなフィードバックコード
- Authors: Emre Ozfatura and Yulin Shao and Amin Ghazanfari and Alberto Perotti
and Branislav Popovic and Deniz Gunduz
- Abstract要約: GBAF符号は、アクティブなフィードバックを持つチャネルでも使用できることを示す。
送信機と受信機にトランスフォーマーアーキテクチャを実装し,相互に順次対話する。
我々は,特に低SNR体制下で,最先端のBLER性能を実現する。
- 参考スコア(独自算出の注目度): 13.766611137136168
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural network (DNN)-assisted channel coding designs, such as
low-complexity neural decoders for existing codes, or end-to-end
neural-network-based auto-encoder designs are gaining interest recently due to
their improved performance and flexibility; particularly for communication
scenarios in which high-performing structured code designs do not exist.
Communication in the presence of feedback is one such communication scenario,
and practical code design for feedback channels has remained an open challenge
in coding theory for many decades. Recently, DNN-based designs have shown
impressive results in exploiting feedback. In particular, generalized block
attention feedback (GBAF) codes, which utilizes the popular transformer
architecture, achieved significant improvement in terms of the block error rate
(BLER) performance. However, previous works have focused mainly on passive
feedback, where the transmitter observes a noisy version of the signal at the
receiver. In this work, we show that GBAF codes can also be used for channels
with active feedback. We implement a pair of transformer architectures, at the
transmitter and the receiver, which interact with each other sequentially, and
achieve a new state-of-the-art BLER performance, especially in the low SNR
regime.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)が支援するチャネルコーディング設計、例えば、既存のコードのための低複雑さニューラルネットワークデコーダや、エンドツーエンドのニューラルネットワークベースのオートエンコーダ設計は、そのパフォーマンスと柔軟性の向上によって、近年関心を集めている。
フィードバックの存在下でのコミュニケーションはそのようなコミュニケーションシナリオのひとつであり、フィードバックチャネルのための実用的なコード設計は、何十年もコーディング理論においてオープンな課題であり続けている。
最近、DNNベースのデザインは、フィードバックを悪用する素晴らしい結果を示している。
特に、一般的なトランスフォーマーアーキテクチャを利用する汎用ブロックアテンションフィードバック(GBAF)符号は、ブロックエラー率(BLER)の性能において大幅に向上した。
しかし、従来の研究は主に受動フィードバックに焦点を合わせており、送信機は受信機で信号のノイズバージョンを観測する。
本研究では,gbaf符号をアクティブフィードバックのチャネルにも利用できることを示す。
本稿では,送信機と受信機に一対のトランスフォーマーアーキテクチャを実装し,特に低SNR方式のBLER性能を実現する。
関連論文リスト
- Learning Linear Block Error Correction Codes [62.25533750469467]
本稿では,バイナリ線形ブロック符号の統一エンコーダデコーダトレーニングを初めて提案する。
また,コード勾配の効率的なバックプロパゲーションのために,自己注意マスキングを行うトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2024-05-07T06:47:12Z) - Joint Channel Estimation and Feedback with Masked Token Transformers in
Massive MIMO Systems [74.52117784544758]
本稿では,CSI行列内の固有周波数領域相関を明らかにするエンコーダデコーダに基づくネットワークを提案する。
エンコーダ・デコーダネットワーク全体がチャネル圧縮に使用される。
提案手法は,共同作業における現状のチャネル推定およびフィードバック技術より優れる。
論文 参考訳(メタデータ) (2023-06-08T06:15:17Z) - Robust Non-Linear Feedback Coding via Power-Constrained Deep Learning [7.941112438865385]
我々は,チャネルノイズに対するロバスト性を大幅に向上させる非線形フィードバック符号の新たなファミリーを開発する。
我々のオートエンコーダベースのアーキテクチャは、連続するビットブロックに基づいてコードを学ぶように設計されている。
提案手法は, 現実的なフォワードやフィードバックノイズシステムよりも, 最先端のフィードバックコードよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-25T22:21:26Z) - Spiking Neural Network Decision Feedback Equalization [70.3497683558609]
決定フィードバック等化器(DFE)に似たフィードバック構造を持つSNNベースの等化器を提案する。
提案手法は,3種類の模範チャネルに対して,従来の線形等化器よりも明らかに優れていることを示す。
決定フィードバック構造を持つSNNは、競合エネルギー効率の良いトランシーバへのパスを可能にする。
論文 参考訳(メタデータ) (2022-11-09T09:19:15Z) - Denoising Diffusion Error Correction Codes [92.10654749898927]
近年、ニューラルデコーダは古典的デコーダ技術に対する優位性を実証している。
最近の最先端のニューラルデコーダは複雑で、多くのレガシデコーダの重要な反復的スキームが欠如している。
本稿では,任意のブロック長の線形符号のソフトデコードにデノナイズ拡散モデルを適用することを提案する。
論文 参考訳(メタデータ) (2022-09-16T11:00:50Z) - All you need is feedback: Communication with block attention feedback
codes [12.459538600658034]
フィードバックチャネル上でのコミュニケーションは,そのような問題のひとつです。
汎用ブロックアテンションフィードバック(GBAF)コードと呼ばれる,フィードバックチャネルのための新しい学習支援コード設計を導入する。
論文 参考訳(メタデータ) (2022-06-19T17:55:04Z) - Error Correction Code Transformer [92.10654749898927]
本稿では,トランスフォーマーアーキテクチャを任意のブロック長で線形符号のソフトデコードに拡張することを提案する。
我々は,各チャネルの出力次元を高次元に符号化し,個別に処理すべきビット情報のより良い表現を行う。
提案手法は、トランスフォーマーの極端なパワーと柔軟性を示し、既存の最先端のニューラルデコーダを、その時間的複雑さのごく一部で大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-03-27T15:25:58Z) - DRF Codes: Deep SNR-Robust Feedback Codes [2.6074034431152344]
本稿では,DNN(Deep-neural-network)に基づく誤り訂正符号を提案する。
付加的な白色ガウス雑音 (AWGN) チャネルにおけるSNR損耗率と誤り率の両面から, DRF符号の精度は, 高い結果が得られた。
論文 参考訳(メタデータ) (2021-12-22T10:47:25Z) - Variational Autoencoders: A Harmonic Perspective [79.49579654743341]
本研究では,高調波解析の観点から変分オートエンコーダ(VAE)について検討する。
VAEのエンコーダ分散は、VAEエンコーダとデコーダニューラルネットワークによってパラメータ化された関数の周波数内容を制御する。
論文 参考訳(メタデータ) (2021-05-31T10:39:25Z) - Deep Extended Feedback Codes [9.112162560071937]
DEFアーキテクチャのエンコーダは情報メッセージを送信し、その後にパリティシンボルのシーケンスが続く。
DEFコードはDeepcodeをいくつかの方法で一般化し、より良いエラー修正機能を提供します。
性能評価では、DEF符号はフィードバックのあるチャンネルの他のDNN符号よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-05-04T08:41:14Z) - Capacity-Approaching Autoencoders for Communications [4.86067125387358]
オートエンコーダを訓練する現在のアプローチは、クロスエントロピー損失関数の使用に依存している。
本稿では,チャネル容量の推定値を計算し,それに近づく最適な符号化信号を構築する手法を提案する。
論文 参考訳(メタデータ) (2020-09-11T08:19:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。