論文の概要: Using Deep Neural Networks to Predict and Improve the Performance of
Polar Codes
- arxiv url: http://arxiv.org/abs/2105.04922v1
- Date: Tue, 11 May 2021 10:24:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 21:00:05.216872
- Title: Using Deep Neural Networks to Predict and Improve the Performance of
Polar Codes
- Title(参考訳): ディープニューラルネットワークを用いた極性コードの性能予測と改善
- Authors: Mathieu L\'eonardon and Vincent Gripon
- Abstract要約: 本研究では, 極性符号のフレーム誤り率を, 冷凍ビット構造順に予測するための深層ニューラルネットワークの訓練を行う手法を提案する。
生成データセットに,ニューラルネットワークの訓練に用いるコードよりも効率的にコードを生成するための提案手法の能力を示す。
- 参考スコア(独自算出の注目度): 3.6804038214708563
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Polar codes can theoretically achieve very competitive Frame Error Rates. In
practice, their performance may depend on the chosen decoding procedure, as
well as other parameters of the communication system they are deployed upon. As
a consequence, designing efficient polar codes for a specific context can
quickly become challenging. In this paper, we introduce a methodology that
consists in training deep neural networks to predict the frame error rate of
polar codes based on their frozen bit construction sequence. We introduce an
algorithm based on Projected Gradient Descent that leverages the gradient of
the neural network function to generate promising frozen bit sequences. We
showcase on generated datasets the ability of the proposed methodology to
produce codes more efficient than those used to train the neural networks, even
when the latter are selected among the most efficient ones.
- Abstract(参考訳): 極性符号は理論的に非常に競争の激しいフレーム誤差率を達成することができる。
実際には、それらの性能は、選択された復号処理と、それらがデプロイされる通信システムの他のパラメータに依存する可能性がある。
その結果、特定のコンテキストに対する効率的な極性コードの設計は、すぐに難しくなる可能性がある。
本稿では,その凍結ビット構築シーケンスに基づいて,極性符号のフレーム誤り率を予測するために,ディープニューラルネットワークを訓練する手法を提案する。
本稿では、ニューラルネットワーク関数の勾配を利用して期待できる凍ったビット列を生成するプロジェクテッドグラディエントDescentに基づくアルゴリズムを提案する。
提案手法がニューラルネットワークのトレーニングに使用されるものよりも効率的にコードを生成することができるような,生成されたデータセットについて紹介する。
関連論文リスト
- Erasure Coded Neural Network Inference via Fisher Averaging [28.243239815823205]
消去符号化コンピューティングは、サーバのストラグリングや異種トラフィックの変動といった要因によって引き起こされるテールレイテンシを低減するために、クラウドシステムで成功している。
我々は、2つ以上のニューラルネットワークモデルに対して、与えられたニューラルネットワークの出力の線形結合である符号付きモデルを構築する方法を設計する。
実世界のビジョンデータセットに基づいてトレーニングされたニューラルネットワーク上で消去符号化を行う実験を行い、COINを用いた復号出力の精度は他のベースラインよりも著しく高いことを示す。
論文 参考訳(メタデータ) (2024-09-02T18:46:26Z) - Enhanced quantum state preparation via stochastic prediction of neural
network [0.8287206589886881]
本稿では,ニューラルネットワークの知識盲点を生かして,アルゴリズムの有効性を高めるための興味深い道を探る。
本手法は,半導体ダブル量子ドットシステムにおける任意の量子状態の生成に使用される機械学習アルゴリズムを中心にしている。
ニューラルネットワークが生成した予測を活用することにより、最適化プロセスの導出により、局所最適化を回避できる。
論文 参考訳(メタデータ) (2023-07-27T09:11:53Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Teaching a neural network with non-tunable exciton-polariton nodes [0.0]
本研究では,非可変なエクシトン・ポラリトンノードのシステムと効率的な教育法を提案する。
我々は,MNIST手書きディジットベンチマークの分類精度が大幅に向上していることを実験的に実証した。
論文 参考訳(メタデータ) (2021-07-23T12:04:38Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Bayesian Nested Neural Networks for Uncertainty Calibration and Adaptive
Compression [40.35734017517066]
ネストネットワーク(Nested Network)またはスリムブルネットワーク(Slimmable Network)は、テスト期間中にアーキテクチャを即座に調整できるニューラルネットワークである。
最近の研究は、トレーニング中に重要なレイヤのノードを順序付けできる"ネストされたドロップアウト"層に焦点を当てている。
論文 参考訳(メタデータ) (2021-01-27T12:34:58Z) - Supervised Learning with First-to-Spike Decoding in Multilayer Spiking
Neural Networks [0.0]
本稿では,多層スパイキングニューラルネットワークを学習して分類問題を解くための教師あり学習手法を提案する。
提案した学習規則は、隠れニューロンが発する複数のスパイクをサポートし、決定論的出力層によって生成された最初のスパイク応答に依存することにより安定である。
また、入力データのコンパクト表現を形成するために、いくつかの異なるスパイクベースの符号化戦略についても検討する。
論文 参考訳(メタデータ) (2020-08-16T15:34:48Z) - Beyond Dropout: Feature Map Distortion to Regularize Deep Neural
Networks [107.77595511218429]
本稿では,ディープニューラルネットワークの中間層に関連する実験的なRademacher複雑性について検討する。
上記の問題に対処するための特徴歪み法(Disout)を提案する。
より高い試験性能を有するディープニューラルネットワークを作製するための特徴写像歪みの優位性を解析し、実証した。
論文 参考訳(メタデータ) (2020-02-23T13:59:13Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。