論文の概要: Autoregressive Belief Propagation for Decoding Block Codes
- arxiv url: http://arxiv.org/abs/2103.11780v1
- Date: Sat, 23 Jan 2021 17:14:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 04:17:44.454558
- Title: Autoregressive Belief Propagation for Decoding Block Codes
- Title(参考訳): ブロック符号復号のための自己回帰的信念伝播
- Authors: Eliya Nachmani, Lior Wolf
- Abstract要約: 誤り訂正符号の復号化にグラフニューラルネットワークを用いた最近の手法を再検討する。
本手法は,他手法がゼロワードでのみ学習できる対称性条件に反する。
1つの単語でトレーニングする余地がなく、関連するサンプル空間のごく一部でトレーニングできないにもかかわらず、効果的なトレーニングを実演する。
- 参考スコア(独自算出の注目度): 113.38181979662288
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We revisit recent methods that employ graph neural networks for decoding
error correcting codes and employ messages that are computed in an
autoregressive manner. The outgoing messages of the variable nodes are
conditioned not only on the incoming messages, but also on an estimation of the
SNR and on the inferred codeword and on two downstream computations: (i) an
extended vector of parity check outcomes, (ii) the mismatch between the
inferred codeword and the re-encoding of the information bits of this codeword.
Unlike most learned methods in the field, our method violates the symmetry
conditions that enable the other methods to train exclusively with the
zero-word. Despite not having the luxury of training on a single word, and the
inability to train on more than a small fraction of the relevant sample space,
we demonstrate effective training. The new method obtains a bit error rate that
outperforms the latest methods by a sizable margin.
- Abstract(参考訳): 我々は,誤り訂正符号の復号化にグラフニューラルネットワークを用いた最近の手法を再検討し,自己回帰的に計算されたメッセージを利用する。
可変ノードの出力メッセージは、受信するメッセージだけでなく、SNRと推論されたコードワードと2つの下流計算にも条件付けされる。
(i)パリティチェック結果の拡張ベクトル。
(ii) 推論されたコードワードとこのコードワードの情報ビットの再エンコードとのミスマッチ。
この分野のほとんどの学習方法とは異なり、我々の手法は、他の手法がゼロワードでのみ訓練できる対称性条件に反する。
1つの単語でトレーニングする余裕がなく、関連するサンプルスペースのごく一部しかトレーニングできないにもかかわらず、効果的なトレーニングを実演しています。
新しい手法は、最新の手法よりも大きなマージンで優れたビット誤り率を得る。
関連論文リスト
- A blindness property of the Min-Sum decoding for the toric code [3.543432625843538]
北エフのトーリック符号は、フォールトトレラント量子計算の最も顕著なモデルの一つである。
近年,メッセージパス復号法におけるトーリック符号の誤り訂正性能の向上に力を入れている。
論文 参考訳(メタデータ) (2024-06-21T08:28:31Z) - Bit Cipher -- A Simple yet Powerful Word Representation System that
Integrates Efficiently with Language Models [4.807347156077897]
Bit-cipherは、バックプロパゲーションや超高効率次元減少技術の必要性を排除したワード表現システムである。
我々は、古典的な埋め込みによるビット暗号の競合性を評価するために、POSタグと名前付きエンティティ認識(NER)の探索実験を行った。
埋め込み層を暗号埋め込みに置き換えることで、トレーニングプロセスの高速化と最適な最適化を実現する上での暗号の顕著な効率を実証した。
論文 参考訳(メタデータ) (2023-11-18T08:47:35Z) - GEC-DePenD: Non-Autoregressive Grammatical Error Correction with
Decoupled Permutation and Decoding [52.14832976759585]
文法的誤り訂正(GEC)は、通常自己回帰的なシーケンス・ツー・シーケンスモデルで解決される重要なNLPタスクである。
本稿では, アーキテクチャを置換ネットワークに分離する, GEC に対する非自己回帰的アプローチを提案する。
GECの既知の非自己回帰手法よりもネットワークが向上することを示す。
論文 参考訳(メタデータ) (2023-11-14T14:24:36Z) - Downstream Task-Oriented Neural Tokenizer Optimization with Vocabulary
Restriction as Post Processing [4.781986758380065]
本稿では,すでに訓練済みの下流モデルの性能向上のために,トークン化を最適化する手法を提案する。
本手法は,語彙制限のためのトレーニングデータに基づいて,与えられた下流モデルの損失値の低いトークン化結果を生成し,トークン化結果を再現するトークン化者を訓練する。
論文 参考訳(メタデータ) (2023-04-21T08:29:14Z) - Provably Convergent Subgraph-wise Sampling for Fast GNN Training [122.68566970275683]
収束保証,すなわちローカルメッセージ補償(LMC)を用いた新しいサブグラフワイズサンプリング手法を提案する。
LMCは、後方パスのメッセージパスの定式化に基づいて、後方パスで破棄されたメッセージを検索する。
大規模ベンチマーク実験により、LCCは最先端のサブグラフワイドサンプリング法よりもはるかに高速であることが示された。
論文 参考訳(メタデータ) (2023-03-17T05:16:49Z) - Soft-Labeled Contrastive Pre-training for Function-level Code
Representation [127.71430696347174]
textbfSoft-labeled contrastive pre-training framework with two positive sample construction method。
大規模コードコーパスにおけるコード間の関連性を考慮すると、ソフトラベル付きコントラスト付き事前学習は、きめ細かいソフトラベルを得ることができる。
SCodeRは、7つのデータセットで4つのコード関連タスクに対して、最先端のパフォーマンスを新たに達成する。
論文 参考訳(メタデータ) (2022-10-18T05:17:37Z) - Variational Sparse Coding with Learned Thresholding [6.737133300781134]
サンプルをしきい値にすることでスパース分布を学習できる変分スパース符号化の新しい手法を提案する。
まず,線形発生器を訓練し,その性能,統計的効率,勾配推定に優れることを示す。
論文 参考訳(メタデータ) (2022-05-07T14:49:50Z) - Addressing Leakage in Self-Supervised Contextualized Code Retrieval [3.693362838682697]
部分的な入力プログラムのギャップを埋めるのに役立つコードスニペットの検索である、文脈化されたコード検索に対処する。
提案手法は,ソースコードをランダムにコンテキストとターゲットに分割することで,大規模な自己指導型コントラストトレーニングを促進する。
両者の漏えいに対処するため, 相互識別マスキング, 復号化, 構文に整合したターゲットの選択に基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-17T12:58:38Z) - Extracting Grammars from a Neural Network Parser for Anomaly Detection
in Unknown Formats [79.6676793507792]
強化学習は、ある未知のフォーマットで文を解析するために、人工知能を訓練する技術として、最近約束されている。
本稿では、ニューラルネットワークから生成規則を抽出し、これらの規則を用いて、ある文が名目か異常かを決定する手順を提案する。
論文 参考訳(メタデータ) (2021-07-30T23:10:24Z) - CIMON: Towards High-quality Hash Codes [63.37321228830102]
我々はtextbfComprehensive stextbfImilarity textbfMining と ctextbfOnsistency leartextbfNing (CIMON) という新しい手法を提案する。
まず、グローバルな洗練と類似度統計分布を用いて、信頼性とスムーズなガイダンスを得る。第二に、意味的整合性学習とコントラスト的整合性学習の両方を導入して、乱不変と差別的ハッシュコードの両方を導出する。
論文 参考訳(メタデータ) (2020-10-15T14:47:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。