論文の概要: Neural Polar Decoders for Deletion Channels
- arxiv url: http://arxiv.org/abs/2507.12329v1
- Date: Wed, 16 Jul 2025 15:22:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.450662
- Title: Neural Polar Decoders for Deletion Channels
- Title(参考訳): 削除チャネルのためのニューラル極性デコーダ
- Authors: Ziv Aharoni, Henry D. Pfister,
- Abstract要約: 本稿では,削除速度が一定である削除チャネルに対するニューラル極復号器(NPD)を提案する。
既存の削除チャネルの極復号器は$O(N4)$の計算複雑性を示し、$N$はブロック長である。
削除チャネルにNPDを用いることで,計算処理の複雑さを低減できることを示す。
- 参考スコア(独自算出の注目度): 10.362077573132634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a neural polar decoder (NPD) for deletion channels with a constant deletion rate. Existing polar decoders for deletion channels exhibit high computational complexity of $O(N^4)$, where $N$ is the block length. This limits the application of polar codes for deletion channels to short-to-moderate block lengths. In this work, we demonstrate that employing NPDs for deletion channels can reduce the computational complexity. First, we extend the architecture of the NPD to support deletion channels. Specifically, the NPD architecture consists of four neural networks (NNs), each replicating fundamental successive cancellation (SC) decoder operations. To support deletion channels, we change the architecture of only one. The computational complexity of the NPD is $O(AN\log N)$, where the parameter $A$ represents a computational budget determined by the user and is independent of the channel. We evaluate the new extended NPD for deletion channels with deletion rates $\delta\in\{0.01, 0.1\}$ and we verify the NPD with the ground truth given by the trellis decoder by Tal et al. We further show that due to the reduced complexity of the NPD, we are able to incorporate list decoding and further improve performance. We believe that the extended NPD presented here could have applications in future technologies like DNA storage.
- Abstract(参考訳): 本稿では,削除速度が一定である削除チャネルに対するニューラル極復号器(NPD)を提案する。
既存の削除チャネルの極復号器は$O(N^4)$の計算複雑性を示し、$N$はブロック長である。
これにより、削除チャネルの極符号をブロック長の短縮に限定することができる。
本研究では,削除チャネルにNPDを用いることで,計算処理の複雑さを低減できることを実証する。
まず、削除チャネルをサポートするためにNPDのアーキテクチャを拡張します。
具体的には、NPDアーキテクチャは4つのニューラルネットワーク(NN)で構成され、それぞれが基本逐次キャンセル(SC)デコーダ操作を複製する。
削除チャネルをサポートするため、私たちは1つのアーキテクチャだけを変更します。
NPDの計算複雑性は$O(AN\log N)$であり、パラメータ$A$はユーザが決定する計算予算を表し、チャネルから独立している。
我々は,削除率$\delta\in\{0.01, 0.1\}$の削除チャネルに対する新たな拡張NPDを評価し,Talらによるトレリス復号器による基底真理でNPDを検証する。
我々は、この拡張NPDが、DNAストレージのような将来の技術に応用できると考えている。
関連論文リスト
- Neural Polar Decoders for DNA Data Storage [10.362077573132634]
挿入や削除などの同期エラーは、DNAベースのデータストレージシステムにおいて根本的な課題となる。
我々は、同期エラーのあるチャネルに対して、低複雑さデコーダを設計するために、NPD(Neural polar decoder)に基づくデータ駆動アプローチを提案する。
論文 参考訳(メタデータ) (2025-06-20T15:26:38Z) - Data-Driven Neural Polar Codes for Unknown Channels With and Without
Memory [20.793209871685445]
本稿では,メモリを使わずにチャネルの極性符号を設計するためのデータ駆動手法を提案する。
提案手法は、逐次キャンセル(SC)デコーダの構造を利用して、ニューラルSCデコーダを考案する。
NSCデコーダはニューラルネットワーク(NN)を使用して、元のSCデコーダの中核要素、チェックノード、ビットノード、ソフトな決定を置き換える。
論文 参考訳(メタデータ) (2023-09-06T16:44:08Z) - Sharp Lower Bounds on Interpolation by Deep ReLU Neural Networks at
Irregularly Spaced Data [2.7195102129095003]
Deep ReLUニューラルネットワークは、距離$delta$で区切られた$N$のデータポイントで値を補間することができる。
我々は$Omega(N)$パラメータが、$delta$が$N$で指数関数的に小さい状態において必要であることを示す。
アプリケーションとして、埋め込みエンドポイントにおけるソボレフ空間に対して、深いReLUニューラルネットワークが達成できる近似率に、低いバウンダリを与える。
論文 参考訳(メタデータ) (2023-02-02T02:46:20Z) - Data-free Backdoor Removal based on Channel Lipschitzness [8.273169655380896]
近年の研究では、ディープニューラルネットワーク(DNN)がバックドア攻撃に弱いことが示されている。
本研究では、入力画像から各チャネルの出力への写像のリプシッツ定数として定義されるチャネルリプシッツ定数(CLC)という新しい概念を導入する。
UCLCは重み行列から直接計算できるので、潜在的なバックドアチャネルをデータフリーで検出することができる。
論文 参考訳(メタデータ) (2022-08-05T11:46:22Z) - Graph Neural Networks for Channel Decoding [71.15576353630667]
低密度パリティチェック(LDPC)やBCH符号など、様々な符号化方式の競合復号性能を示す。
ニューラルネットワーク(NN)は、与えられたグラフ上で一般化されたメッセージパッシングアルゴリズムを学習する。
提案するデコーダを,従来のチャネル復号法および最近のディープラーニングに基づく結果と比較した。
論文 参考訳(メタデータ) (2022-07-29T15:29:18Z) - Two-Timescale End-to-End Learning for Channel Acquisition and Hybrid
Precoding [94.40747235081466]
本研究では,ミリ波(mmWave)大規模マルチインプット多重出力(MIMO)システムのためのエンドツーエンドの深層学習に基づくジョイントトランスシーバ設計アルゴリズムを提案する。
我々は受信したパイロットを受信機でフィードバックビットにマッピングし、さらに送信機でハイブリッドプリコーダにフィードバックビットをマッピングするDNNアーキテクチャを開発した。
論文 参考訳(メタデータ) (2021-10-22T20:49:02Z) - GDP: Stabilized Neural Network Pruning via Gates with Differentiable
Polarization [84.57695474130273]
ゲートベースまたは重要度に基づくプルーニング手法は、重要度が最小のチャネルを削除することを目的としている。
GDPは、各チャネルのオン・アンド・オフを制御するために、ベルやホイッスルのない畳み込み層の前に接続することができる。
CIFAR-10とImageNetデータセットを用いて行った実験は、提案したGDPが最先端のパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2021-09-06T03:17:10Z) - Decoding 5G-NR Communications via Deep Learning [6.09170287691728]
本稿では,Deep Neural Network(DNN)と共同で自動符号化ニューラルネットワーク(ANN)を用いて,デマッピングとデコードのための自動符号化ディープニューラルネットワーク(ADNN)を構築することを提案する。
その結果、特定のBERターゲットに対して、AWGN(Additive White Gaussian Noise)チャネルにおいて、SNR(Signal to Noise Ratio)の$3$dBが要求されることが明らかになった。
論文 参考訳(メタデータ) (2020-07-15T12:00:20Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z) - Pruning Neural Belief Propagation Decoders [77.237958592189]
本稿では,機械学習を用いたBPデコードに対して,過剰完全パリティチェック行列を調整する手法を提案する。
我々は,デコーダの複雑さを低減しつつ,0.27dB,1.5dBのML性能を実現する。
論文 参考訳(メタデータ) (2020-01-21T12:05:46Z) - Discrimination-aware Network Pruning for Deep Model Compression [79.44318503847136]
既存のプルーニング手法は、スクラッチからスパーシティ制約で訓練するか、事前訓練されたモデルと圧縮されたモデルの特徴マップ間の再構成誤差を最小限に抑えるかのいずれかである。
本稿では,識別能力に実際に寄与するチャネルを選択するために,識別認識チャネルプルーニング (DCP) と呼ばれる簡便な手法を提案する。
画像分類と顔認識の両方の実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-01-04T07:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。