論文の概要: ProductAE: Toward Deep Learning Driven Error-Correction Codes of Large Dimensions
- arxiv url: http://arxiv.org/abs/2303.16424v2
- Date: Mon, 19 Aug 2024 03:44:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 04:48:49.037952
- Title: ProductAE: Toward Deep Learning Driven Error-Correction Codes of Large Dimensions
- Title(参考訳): ProductAE: 大規模次元のディープラーニング駆動型エラー訂正コードを目指して
- Authors: Mohammad Vahid Jamali, Hamid Saber, Homayoon Hatami, Jung Hyun Bae,
- Abstract要約: Product Autoencoder (ProductAE) は、ディープラーニング駆動(エンコーダ、デコーダ)ペアの計算効率のよいファミリーである。
我々は、古典的な製品コードからアイデアを構築し、より小さなコードコンポーネントを使って大きなニューラルコードを構築することを提案する。
トレーニング結果は,有意義なパフォーマンス向上を伴う,$k = 300$bitsの大きさのProductAEsのトレーニングに成功したことを示す。
- 参考スコア(独自算出の注目度): 8.710629810511252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While decades of theoretical research have led to the invention of several classes of error-correction codes, the design of such codes is an extremely challenging task, mostly driven by human ingenuity. Recent studies demonstrate that such designs can be effectively automated and accelerated via tools from machine learning (ML), thus enabling ML-driven classes of error-correction codes with promising performance gains compared to classical designs. A fundamental challenge, however, is that it is prohibitively complex, if not impossible, to design and train fully ML-driven encoder and decoder pairs for large code dimensions. In this paper, we propose Product Autoencoder (ProductAE) -- a computationally-efficient family of deep learning driven (encoder, decoder) pairs -- aimed at enabling the training of relatively large codes (both encoder and decoder) with a manageable training complexity. We build upon ideas from classical product codes and propose constructing large neural codes using smaller code components. ProductAE boils down the complex problem of training the encoder and decoder for a large code dimension $k$ and blocklength $n$ to less-complex sub-problems of training encoders and decoders for smaller dimensions and blocklengths. Our training results show successful training of ProductAEs of dimensions as large as $k = 300$ bits with meaningful performance gains compared to state-of-the-art classical and neural designs. Moreover, we demonstrate excellent robustness and adaptivity of ProductAEs to channel models different than the ones used for training.
- Abstract(参考訳): 何十年にもわたって理論研究がいくつかのエラー訂正符号のクラスを考案してきたが、そのような符号の設計は極めて困難な作業であり、その大部分は人間の創造性によって進められている。
近年の研究では、このような設計を機械学習(ML)のツールで効果的に自動化し、高速化できることが実証されている。
しかし、基本的な課題は、ML駆動のエンコーダとデコーダのペアを大規模なコード次元で設計し、訓練することは、不可能ではないとしても、違法に複雑であることである。
本稿では,ディープラーニング駆動型(エンコーダ,デコーダ)ペアの計算効率が高い製品オートエンコーダ(ProductAE)を提案する。
我々は、古典的な製品コードからアイデアを構築し、より小さなコードコンポーネントを使って大きなニューラルコードを構築することを提案する。
ProductAEは、エンコーダとデコーダを、大きなコードディメンション$k$とブロック長$n$で訓練する複雑な問題を、より小さなディメンジョンとブロック長のためのトレーニングエンコーダとデコーダの、より複雑なサブプロブレムに導いてくれる。
我々のトレーニング結果は、最先端の古典的およびニューラルデザインと比較して、有意義な性能向上を伴う次元が$k = 300$bitsのProductAEsのトレーニングに成功したことを示している。
さらに,ProductAEsがトレーニングに使用するものとは異なるチャネルモデルに対して,優れた堅牢性と適応性を示す。
関連論文リスト
- GNN-based Auto-Encoder for Short Linear Block Codes: A DRL Approach [43.17241175857862]
深層強化学習(DRL)とグラフニューラルネットワーク(GNN)をコード設計に統合する。
エッジ重み付きGNN(EW-GNN)デコーダを提案する。
DRLベースのコードデザイナとEW-GNNデコーダの反復的な共同訓練を行い、エンドエンドエンコーディングとデコード処理を最適化する。
論文 参考訳(メタデータ) (2024-12-03T00:25:14Z) - Case2Code: Scalable Synthetic Data for Code Generation [105.89741089673575]
大規模言語モデル(LLM)は、コード生成において顕著なブレークスルーを示している。
最近の研究は、いくつかの強力なLLMによって生成された合成データをトレーニングすることで、コードLLMを改善している。
プログラムの表現性と正確性を利用したtextbfCase2Code タスクを提案する。
論文 参考訳(メタデータ) (2024-07-17T11:35:00Z) - Toward Exploring the Code Understanding Capabilities of Pre-trained Code Generation Models [12.959392500354223]
私たちは、事前訓練されたコード生成モデルからコード理解タスクへの知識の移行の先駆者です。
CL4Dはデコーダのみのモデルの表現能力を向上させるために設計された,コントラスト学習手法である。
論文 参考訳(メタデータ) (2024-06-18T06:52:14Z) - Factor Graph Optimization of Error-Correcting Codes for Belief Propagation Decoding [62.25533750469467]
低密度パリティ・チェック (LDPC) コードは、他の種類のコードに対していくつかの利点がある。
提案手法は,既存の人気符号の復号性能を桁違いに向上させる。
論文 参考訳(メタデータ) (2024-06-09T12:08:56Z) - Learning Linear Block Error Correction Codes [62.25533750469467]
本稿では,バイナリ線形ブロック符号の統一エンコーダデコーダトレーニングを初めて提案する。
また,コード勾配の効率的なバックプロパゲーションのために,自己注意マスキングを行うトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2024-05-07T06:47:12Z) - Small Quantum Codes from Algebraic Extensions of Generalized Bicycle
Codes [4.299840769087443]
量子LDPC符号は、消滅する符号化率を持つ表面符号から、一定の符号化率と線形距離を持つ非常に有望な符号まで様々である。
我々は、一般化自転車(GB)符号として知られる量子LDPC符号のサブセットにインスパイアされた小さな量子符号を考案した。
論文 参考訳(メタデータ) (2024-01-15T10:38:13Z) - CodeT5+: Open Code Large Language Models for Code Understanding and
Generation [72.1638273937025]
大きな言語モデル (LLM) は膨大なソースコードで事前訓練されており、コードインテリジェンスにおいて顕著な進歩を遂げている。
CodeT5+は、コンポーネントモジュールを柔軟に組み合わせて、幅広い下流のコードタスクに適合させることができるコードのためのエンコーダ-デコーダLLMのファミリーである。
我々は、ゼロショット、微調整、命令調整を含む20以上のコード関連ベンチマークでCodeT5+を広範囲に評価した。
論文 参考訳(メタデータ) (2023-05-13T14:23:07Z) - CodeRL: Mastering Code Generation through Pretrained Models and Deep
Reinforcement Learning [92.36705236706678]
CodeRLは、事前訓練されたLMと深層強化学習によるプログラム合成タスクのための新しいフレームワークである。
推論中、我々は重要なサンプリング戦略を持つ新しい生成手順を導入する。
モデルバックボーンについては,CodeT5のエンコーダデコーダアーキテクチャを拡張し,学習目標を拡張した。
論文 参考訳(メタデータ) (2022-07-05T02:42:15Z) - Adversarial Neural Networks for Error Correcting Codes [76.70040964453638]
機械学習(ML)モデルの性能と適用性を高めるための一般的なフレームワークを紹介する。
本稿では,MLデコーダと競合する識別器ネットワークを組み合わせることを提案する。
我々のフレームワークはゲーム理論であり、GAN(Generative Adversarial Network)によって動機付けられている。
論文 参考訳(メタデータ) (2021-12-21T19:14:44Z) - ProductAE: Towards Training Larger Channel Codes based on Neural Product
Codes [9.118706387430885]
ディープラーニング技術を通じて比較的大きなニューラルチャネルコードを設計し、訓練することは、違法に複雑である。
本稿では,ディープラーニング駆動型(エンコーダ,デコーダ)ペアの計算効率の良いファミリーであるProductAEsを構築する。
我々は、パラメータのコード(100,225)$とパラメータの中間長コード(196,441)$に対して、SNR(Signal-to-noise ratio)のあらゆる範囲において、大きな利得を示す。
論文 参考訳(メタデータ) (2021-10-09T06:00:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。