論文の概要: Learning Binary Autoencoder-Based Codes with Progressive Training
- arxiv url: http://arxiv.org/abs/2511.09221v1
- Date: Thu, 13 Nov 2025 01:41:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.472549
- Title: Learning Binary Autoencoder-Based Codes with Progressive Training
- Title(参考訳): プログレッシブトレーニングによるバイナリオートエンコーダに基づく学習
- Authors: Vukan Ninkovic, Dejan Vukobratovic,
- Abstract要約: オートエンコーダ(AE)ベースのアプローチは、通信システムのエンドツーエンド設計に注目されている。
これらの結果から, コンパクトAEアーキテクチャは, 安定かつ素直な訓練により, 構造的, 代数的最適二項符号を効果的に学習できることが示唆された。
- 参考スコア(独自算出の注目度): 1.8620637029128544
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Error correcting codes play a central role in digital communication, ensuring that transmitted information can be accurately reconstructed despite channel impairments. Recently, autoencoder (AE) based approaches have gained attention for the end-to-end design of communication systems, offering a data driven alternative to conventional coding schemes. However, enforcing binary codewords within differentiable AE architectures remains difficult, as discretization breaks gradient flow and often leads to unstable convergence. To overcome this limitation, a simplified two stage training procedure is proposed, consisting of a continuous pretraining phase followed by direct binarization and fine tuning without gradient approximation techniques. For the (7,4) block configuration over a binary symmetric channel (BSC), the learned encoder-decoder pair learns a rotated version (coset code) of the optimal Hamming code, naturally recovering its linear and distance properties and thereby achieving the same block error rate (BLER) with maximum likelihood (ML) decoding. These results indicate that compact AE architectures can effectively learn structured, algebraically optimal binary codes through stable and straightforward training.
- Abstract(参考訳): 誤り訂正符号はデジタル通信において中心的な役割を担い、伝送された情報がチャネル障害にもかかわらず正確に再構成可能であることを保証する。
近年、オートエンコーダ(AE)ベースのアプローチは、従来の符号化方式に代わるデータ駆動方式を提供する通信システムのエンドツーエンド設計に注目されている。
しかし、離散化が勾配流を破り、しばしば不安定な収束をもたらすため、異なるAEアーキテクチャ内でバイナリコードワードを強制することは依然として困難である。
この制限を克服するため, 連続事前学習フェーズと直接二項化, 勾配近似を伴わない微調整からなる簡易な2段階訓練手法を提案する。
2進対称チャネル(BSC)上の(7,4)ブロック構成では、学習したエンコーダとデコーダペアは最適なハミング符号の回転バージョン(コセット符号)を学習し、その線形および距離特性を自然に回復し、最大可算(ML)デコードで同じブロックエラー率(BLER)を達成する。
これらの結果から, コンパクトAEアーキテクチャは, 安定かつ素直な訓練により, 構造的, 代数的最適二項符号を効果的に学習できることが示唆された。
関連論文リスト
- Decoding for Punctured Convolutional and Turbo Codes: A Deep Learning Solution for Protocols Compliance [32.887114329215045]
本稿では,畳み込み畳み込み符号とターボ符号に対して,LSTMを用いたニューラルデコーダを提案する。
提案したLSTMベースのニューラルネットワークデコーダのキーコンポーネントは、句読取認識の埋め込みで、句読取パターンを直接ニューラルネットワークに組み込む。
論文 参考訳(メタデータ) (2025-02-21T14:00:14Z) - Threshold Selection for Iterative Decoding of $(v,w)$-regular Binary Codes [84.0257274213152]
繰り返しビットフリップデコーダは、sparse $(v,w)$-regular符号の効率的な選択である。
閉形式モデルに基づくしきい値決定のための具体的な基準を提案する。
論文 参考訳(メタデータ) (2025-01-23T17:38:22Z) - Learning Linear Block Error Correction Codes [62.25533750469467]
本稿では,バイナリ線形ブロック符号の統一エンコーダデコーダトレーニングを初めて提案する。
また,コード勾配の効率的なバックプロパゲーションのために,自己注意マスキングを行うトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2024-05-07T06:47:12Z) - Denoising Diffusion Error Correction Codes [92.10654749898927]
近年、ニューラルデコーダは古典的デコーダ技術に対する優位性を実証している。
最近の最先端のニューラルデコーダは複雑で、多くのレガシデコーダの重要な反復的スキームが欠如している。
本稿では,任意のブロック長の線形符号のソフトデコードにデノナイズ拡散モデルを適用することを提案する。
論文 参考訳(メタデータ) (2022-09-16T11:00:50Z) - Graph Neural Networks for Channel Decoding [71.15576353630667]
低密度パリティチェック(LDPC)やBCH符号など、様々な符号化方式の競合復号性能を示す。
ニューラルネットワーク(NN)は、与えられたグラフ上で一般化されたメッセージパッシングアルゴリズムを学習する。
提案するデコーダを,従来のチャネル復号法および最近のディープラーニングに基づく結果と比較した。
論文 参考訳(メタデータ) (2022-07-29T15:29:18Z) - Error Correction Code Transformer [92.10654749898927]
本稿では,トランスフォーマーアーキテクチャを任意のブロック長で線形符号のソフトデコードに拡張することを提案する。
我々は,各チャネルの出力次元を高次元に符号化し,個別に処理すべきビット情報のより良い表現を行う。
提案手法は、トランスフォーマーの極端なパワーと柔軟性を示し、既存の最先端のニューラルデコーダを、その時間的複雑さのごく一部で大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-03-27T15:25:58Z) - Adversarial Neural Networks for Error Correcting Codes [76.70040964453638]
機械学習(ML)モデルの性能と適用性を高めるための一般的なフレームワークを紹介する。
本稿では,MLデコーダと競合する識別器ネットワークを組み合わせることを提案する。
我々のフレームワークはゲーム理論であり、GAN(Generative Adversarial Network)によって動機付けられている。
論文 参考訳(メタデータ) (2021-12-21T19:14:44Z) - Infomax Neural Joint Source-Channel Coding via Adversarial Bit Flip [41.28049430114734]
本稿では、ニューラルジョイント・ソース・チャネル符号化方式の安定性と堅牢性を改善するために、Infomax Adversarial-Bit-Flip (IABF) と呼ばれる新しい正規化手法を提案する。
我々のIABFは、圧縮と誤り訂正のベンチマークの両方で最先端のパフォーマンスを達成でき、ベースラインをかなりの差で上回ることができる。
論文 参考訳(メタデータ) (2020-04-03T10:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。