論文の概要: Consistency Flow Model Achieves One-step Denoising Error Correction Codes
- arxiv url: http://arxiv.org/abs/2512.01389v1
- Date: Mon, 01 Dec 2025 08:07:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.754946
- Title: Consistency Flow Model Achieves One-step Denoising Error Correction Codes
- Title(参考訳): 誤り訂正符号の一段階化を実現する一貫性流れモデル
- Authors: Haoyu Lei, Chin Wa Lau, Kaiwen Zhou, Nian Guo, Farzan Farnia,
- Abstract要約: 高忠実度ワンステップ復号のための誤り補正整合流れモデル(ECCFM)を提案する。
ECCFMは自己回帰や拡散に基づくベースラインよりもビットエラー率(BER)が低い。
拡散デコーダよりも30倍から100倍高速な推論速度を提供する。
- 参考スコア(独自算出の注目度): 28.89866643527586
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Error Correction Codes (ECC) are fundamental to reliable digital communication, yet designing neural decoders that are both accurate and computationally efficient remains challenging. Recent denoising diffusion decoders with transformer backbones achieve state-of-the-art performance, but their iterative sampling limits practicality in low-latency settings. We introduce the Error Correction Consistency Flow Model (ECCFM), an architecture-agnostic training framework for high-fidelity one-step decoding. By casting the reverse denoising process as a Probability Flow Ordinary Differential Equation (PF-ODE) and enforcing smoothness through a differential time regularization, ECCFM learns to map noisy signals along the decoding trajectory directly to the original codeword in a single inference step. Across multiple decoding benchmarks, ECCFM attains lower bit-error rates (BER) than autoregressive and diffusion-based baselines, with notable improvements on longer codes, while delivering inference speeds up from 30x to 100x faster than denoising diffusion decoders.
- Abstract(参考訳): 誤り訂正符号(ECC)は信頼性の高いデジタル通信の基本であるが、正確かつ計算効率のよいニューラルデコーダを設計することは依然として困難である。
近年, 変圧器のバックボーンを有する拡散復号器は, 最先端性能を実現するが, 繰り返しサンプリングにより低遅延環境下での実用性は制限される。
高忠実度ワンステップデコーディングのためのアーキテクチャに依存しないトレーニングフレームワークであるECCFM(Error Correction Consistency Flow Model)を紹介する。
逆復調処理を確率フロー正規微分方程式(PF-ODE)としてキャストし、微分時間正規化により滑らかさを強制することにより、ECCFMは、復号軌道に沿ってノイズ信号を1つの推論ステップで元のコードワードに直接マッピングする。
複数のデコードベンチマークを通じて、ECCFMは自己回帰や拡散ベースのベースラインよりもビットエラー率(BER)が低く、より長いコードでは顕著に改善され、推論速度は拡散デコーダの30倍から100倍に向上した。
関連論文リスト
- Learning Binary Autoencoder-Based Codes with Progressive Training [1.8620637029128544]
オートエンコーダ(AE)ベースのアプローチは、通信システムのエンドツーエンド設計に注目されている。
これらの結果から, コンパクトAEアーキテクチャは, 安定かつ素直な訓練により, 構造的, 代数的最適二項符号を効果的に学習できることが示唆された。
論文 参考訳(メタデータ) (2025-11-12T11:32:03Z) - Decoding quantum low density parity check codes with diffusion [0.5855198111605814]
量子低密度パリティチェック符号におけるシンドローム測定から論理誤差を推定するための拡散モデルフレームワークを提案する。
マスク付き拡散デコーダは平均より正確で、しばしば高速であり、最悪の場合、他の最先端のデコーダよりも常に高速であることを示す。
論文 参考訳(メタデータ) (2025-09-26T13:46:52Z) - One-Way Ticket:Time-Independent Unified Encoder for Distilling Text-to-Image Diffusion Models [65.96186414865747]
テキスト・ツー・イメージ(T2I)拡散モデルは、推論速度と画質のトレードオフに直面している。
学生モデルUNetアーキテクチャのための最初の時間非依存の統一TiUEを紹介する。
ワンパススキームを使用して、TiUEは複数のデコーダタイムステップにまたがるエンコーダ機能を共有し、並列サンプリングを可能にする。
論文 参考訳(メタデータ) (2025-05-28T04:23:22Z) - One-Step Diffusion Model for Image Motion-Deblurring [85.76149042561507]
本稿では,脱臭過程を1段階に短縮する新しいフレームワークである脱臭拡散モデル(OSDD)を提案する。
拡散モデルにおける忠実度損失に対処するために,構造復元を改善する改良された変分オートエンコーダ(eVAE)を導入する。
提案手法は,実測値と非参照値の両方で高い性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T09:39:57Z) - Efficient Transformer-based Decoder for Varshamov-Tenengolts Codes [1.53119329713143]
主に単一エラー訂正のために設計されたVarshamov-Tenengolts (VT) コードは、研究の中心として浮上している。
既存の復号法では1つの誤りを訂正する精度が高いが、複数のIDSエラーを修正できない場合が多い。
本研究では,変換器をベースとしたVTデコーダを導入することにより,VT符号が複数のエラーに対処する能力を維持していることを示す。
論文 参考訳(メタデータ) (2025-02-28T13:59:14Z) - Accelerating Error Correction Code Transformers [56.75773430667148]
本稿では,トランスを用いたデコーダの高速化手法を提案する。
最新のハードウェアでは、90%の圧縮比を実現し、算術演算エネルギー消費を少なくとも224倍削減する。
論文 参考訳(メタデータ) (2024-10-08T11:07:55Z) - Learning Linear Block Error Correction Codes [62.25533750469467]
本稿では,バイナリ線形ブロック符号の統一エンコーダデコーダトレーニングを初めて提案する。
また,コード勾配の効率的なバックプロパゲーションのために,自己注意マスキングを行うトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2024-05-07T06:47:12Z) - Denoising Diffusion Error Correction Codes [92.10654749898927]
近年、ニューラルデコーダは古典的デコーダ技術に対する優位性を実証している。
最近の最先端のニューラルデコーダは複雑で、多くのレガシデコーダの重要な反復的スキームが欠如している。
本稿では,任意のブロック長の線形符号のソフトデコードにデノナイズ拡散モデルを適用することを提案する。
論文 参考訳(メタデータ) (2022-09-16T11:00:50Z) - Error Correction Code Transformer [92.10654749898927]
本稿では,トランスフォーマーアーキテクチャを任意のブロック長で線形符号のソフトデコードに拡張することを提案する。
我々は,各チャネルの出力次元を高次元に符号化し,個別に処理すべきビット情報のより良い表現を行う。
提案手法は、トランスフォーマーの極端なパワーと柔軟性を示し、既存の最先端のニューラルデコーダを、その時間的複雑さのごく一部で大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-03-27T15:25:58Z) - Infomax Neural Joint Source-Channel Coding via Adversarial Bit Flip [41.28049430114734]
本稿では、ニューラルジョイント・ソース・チャネル符号化方式の安定性と堅牢性を改善するために、Infomax Adversarial-Bit-Flip (IABF) と呼ばれる新しい正規化手法を提案する。
我々のIABFは、圧縮と誤り訂正のベンチマークの両方で最先端のパフォーマンスを達成でき、ベースラインをかなりの差で上回ることができる。
論文 参考訳(メタデータ) (2020-04-03T10:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。