論文の概要: Adversarial Neural Networks for Error Correcting Codes
- arxiv url: http://arxiv.org/abs/2112.11491v1
- Date: Tue, 21 Dec 2021 19:14:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-24 01:45:10.765055
- Title: Adversarial Neural Networks for Error Correcting Codes
- Title(参考訳): 誤り訂正符号に対する逆ニューラルネットワーク
- Authors: Hung T. Nguyen, Steven Bottone, Kwang Taik Kim, Mung Chiang, H.
Vincent Poor
- Abstract要約: 機械学習(ML)モデルの性能と適用性を高めるための一般的なフレームワークを紹介する。
本稿では,MLデコーダと競合する識別器ネットワークを組み合わせることを提案する。
我々のフレームワークはゲーム理論であり、GAN(Generative Adversarial Network)によって動機付けられている。
- 参考スコア(独自算出の注目度): 76.70040964453638
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Error correcting codes are a fundamental component in modern day
communication systems, demanding extremely high throughput, ultra-reliability
and low latency. Recent approaches using machine learning (ML) models as the
decoders offer both improved performance and great adaptability to unknown
environments, where traditional decoders struggle. We introduce a general
framework to further boost the performance and applicability of ML models. We
propose to combine ML decoders with a competing discriminator network that
tries to distinguish between codewords and noisy words, and, hence, guides the
decoding models to recover transmitted codewords. Our framework is
game-theoretic, motivated by generative adversarial networks (GANs), with the
decoder and discriminator competing in a zero-sum game. The decoder learns to
simultaneously decode and generate codewords while the discriminator learns to
tell the differences between decoded outputs and codewords. Thus, the decoder
is able to decode noisy received signals into codewords, increasing the
probability of successful decoding. We show a strong connection of our
framework with the optimal maximum likelihood decoder by proving that this
decoder defines a Nash equilibrium point of our game. Hence, training to
equilibrium has a good possibility of achieving the optimal maximum likelihood
performance. Moreover, our framework does not require training labels, which
are typically unavailable during communications, and, thus, seemingly can be
trained online and adapt to channel dynamics. To demonstrate the performance of
our framework, we combine it with the very recent neural decoders and show
improved performance compared to the original models and traditional decoding
algorithms on various codes.
- Abstract(参考訳): エラー訂正コードは現代の通信システムにおける基本的なコンポーネントであり、非常に高いスループット、超信頼性、低レイテンシを必要とする。
機械学習(ML)モデルをデコーダとして使用する最近のアプローチは、従来のデコーダが苦労する未知の環境に対して、パフォーマンスと大幅な適応性の両方を提供する。
我々は,mlモデルの性能と適用性をさらに高めるための汎用フレームワークを提案する。
そこで本研究では,mlデコーダと,符号語と雑音語を区別する競合する識別器ネットワークを組み合わせることで,符号化モデルを誘導して符号語を復元する手法を提案する。
我々のフレームワークはゲーム理論であり、生成的敵ネットワーク(gans)によって動機づけられ、デコーダと判別器はゼロサムゲームで競う。
デコーダは同時にデコードし、コードワードを生成することを学習し、識別器はデコードされた出力とコードワードの違いを知ることを学習する。
これにより、デコーダはノイズの多い受信信号をコードワードに復号することができ、復号に成功した確率を高めることができる。
我々は,このデコーダがゲームのnash平衡点を定義することを証明し,このフレームワークと最適最大確率デコーダとの強い関係を示す。
したがって、平衡へのトレーニングは最適極大性能を達成する可能性が十分にある。
さらに、当社のフレームワークでは、通常通信中に使用できないラベルをトレーニングする必要はなく、オンライントレーニングやチャネルダイナミクスへの適応も可能です。
フレームワークの性能を示すため、非常に最近のニューラルデコーダと組み合わせて、元のモデルや様々なコードでの従来のデコードアルゴリズムと比較して、性能が改善された。
関連論文リスト
- Learning Linear Block Error Correction Codes [62.25533750469467]
本稿では,バイナリ線形ブロック符号の統一エンコーダデコーダトレーニングを初めて提案する。
また,コード勾配の効率的なバックプロパゲーションのために,自己注意マスキングを行うトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2024-05-07T06:47:12Z) - A blockBP decoder for the surface code [0.0]
本稿では,テンソル・ネットワーク・デコーダの精度と信念伝達アルゴリズムの効率性と並列性を組み合わせた表面符号のための新しいデコーダを提案する。
したがって、デコーダは、縮退した最大可能性復号化フレームワークで動作する信念伝播復号器である。
論文 参考訳(メタデータ) (2024-02-07T13:32:32Z) - Coding for Gaussian Two-Way Channels: Linear and Learning-Based
Approaches [28.98777190628006]
線形符号化と学習ベース符号化の2つの異なる双方向符号化方式を提案する。
学習に基づくコーディングには、新しいリカレントニューラルネットワーク(RNN)ベースのコーディングアーキテクチャを導入する。
我々の双方向符号化方式は、従来のチャネル符号化方式よりも格段に優れている。
論文 参考訳(メタデータ) (2023-12-31T12:40:18Z) - The END: An Equivariant Neural Decoder for Quantum Error Correction [73.4384623973809]
データ効率のよいニューラルデコーダを導入し、この問題の対称性を活用する。
本稿では,従来のニューラルデコーダに比べて精度の高い新しい同変アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-04-14T19:46:39Z) - Optimizing Serially Concatenated Neural Codes with Classical Decoders [8.692972779213932]
従来の復号アルゴリズムが非自明な実数値ニューラルコードに適用されていることを示す。
BCJRアルゴリズムは完全に微分可能であるので、エンドツーエンドでニューラルエンコーダのトレーニングや微調整が可能である。
論文 参考訳(メタデータ) (2022-12-20T15:40:08Z) - Denoising Diffusion Error Correction Codes [92.10654749898927]
近年、ニューラルデコーダは古典的デコーダ技術に対する優位性を実証している。
最近の最先端のニューラルデコーダは複雑で、多くのレガシデコーダの重要な反復的スキームが欠如している。
本稿では,任意のブロック長の線形符号のソフトデコードにデノナイズ拡散モデルを適用することを提案する。
論文 参考訳(メタデータ) (2022-09-16T11:00:50Z) - Graph Neural Networks for Channel Decoding [71.15576353630667]
低密度パリティチェック(LDPC)やBCH符号など、様々な符号化方式の競合復号性能を示す。
ニューラルネットワーク(NN)は、与えられたグラフ上で一般化されたメッセージパッシングアルゴリズムを学習する。
提案するデコーダを,従来のチャネル復号法および最近のディープラーニングに基づく結果と比較した。
論文 参考訳(メタデータ) (2022-07-29T15:29:18Z) - Less is More: Pre-training a Strong Siamese Encoder Using a Weak Decoder [75.84152924972462]
多くの実世界のアプリケーションはSiameseネットワークを使用して、テキストシーケンスを大規模に効率的にマッチングします。
本稿では,シームズアーキテクチャにおけるシーケンスマッチング専用の言語モデルを事前学習する。
論文 参考訳(メタデータ) (2021-02-18T08:08:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。