論文の概要: Learning End-to-End Channel Coding with Diffusion Models
- arxiv url: http://arxiv.org/abs/2309.10505v2
- Date: Thu, 21 Sep 2023 14:45:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 11:39:59.441853
- Title: Learning End-to-End Channel Coding with Diffusion Models
- Title(参考訳): 拡散モデルを用いたエンドツーエンドチャネル符号化の学習
- Authors: Muah Kim, Rick Fritschek, and Rafael F. Schaefer
- Abstract要約: 拡散モデルに基づくエンドツーエンドのチャネル符号化フレームワークを提案する。
様々なチャネルモデルを用いたシミュレーションにより,拡散モデルがチャネル分布を正確に学習できることが確かめられる。
また,高速化サンプリングアルゴリズムを適用した場合のサンプリング品質とサンプリング速度のトレードオフについても検討する。
- 参考スコア(独自算出の注目度): 19.80498913496519
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The training of neural encoders via deep learning necessitates a
differentiable channel model due to the backpropagation algorithm. This
requirement can be sidestepped by approximating either the channel distribution
or its gradient through pilot signals in real-world scenarios. The initial
approach draws upon the latest advancements in image generation, utilizing
generative adversarial networks (GANs) or their enhanced variants to generate
channel distributions. In this paper, we address this channel approximation
challenge with diffusion models, which have demonstrated high sample quality in
image generation. We offer an end-to-end channel coding framework underpinned
by diffusion models and propose an efficient training algorithm. Our
simulations with various channel models establish that our diffusion models
learn the channel distribution accurately, thereby achieving near-optimal
end-to-end symbol error rates (SERs). We also note a significant advantage of
diffusion models: A robust generalization capability in high signal-to-noise
ratio regions, in contrast to GAN variants that suffer from error floor.
Furthermore, we examine the trade-off between sample quality and sampling
speed, when an accelerated sampling algorithm is deployed, and investigate the
effect of the noise scheduling on this trade-off. With an apt choice of noise
scheduling, sampling time can be significantly reduced with a minor increase in
SER.
- Abstract(参考訳): ディープラーニングによるニューラルエンコーダのトレーニングは、バックプロパゲーションアルゴリズムによって異なるチャネルモデルを必要とする。
この要件は、実世界のシナリオでパイロット信号を介してチャネル分布またはその勾配を近似することで回避することができる。
最初のアプローチは、GAN(Generative Adversarial Network)またはその拡張版を利用して、チャネル分布を生成する、画像生成の最新の進歩に導かれる。
本稿では,この拡散モデルにおけるチャネル近似問題に対処し,画像生成において高いサンプル品質を示す。
拡散モデルに基づくエンドツーエンドのチャネルコーディングフレームワークを提供し、効率的なトレーニングアルゴリズムを提案する。
様々なチャネルモデルを用いたシミュレーションにより、拡散モデルはチャネル分布を正確に学習し、ほぼ最適のシンボル誤り率(SER)を実現する。
高い信号-雑音比領域におけるロバストな一般化能力は、エラーフロアに苦しむGAN変種とは対照的である。
さらに,高速化サンプリングアルゴリズムを適用した場合のサンプル品質とサンプリング速度のトレードオフについて検討し,このトレードオフに対するノイズスケジューリングの影響について検討した。
ノイズスケジューリングの適度な選択により、SERのわずかな増加とともにサンプリング時間を著しく短縮することができる。
関連論文リスト
- Neural Network Diffusion [50.85251415173792]
拡散モデルは画像生成やビデオ生成において顕著な成功を収めた。
本研究は拡散モデルにも適用可能であることを示す。
高性能なニューラルネットワークパラメータを生成する。
論文 参考訳(メタデータ) (2024-02-20T16:59:03Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - Generative Diffusion Models for Radio Wireless Channel Modelling and
Sampling [11.09458914721516]
チャネルモデリングの複雑さと高品質な無線チャネルデータの収集コストが大きな課題となっている。
本稿では,拡散モデルに基づくチャネルサンプリング手法を提案する。
モード崩壊や不安定なトレーニングに苦しむ既存のGANベースのアプローチと比較して,拡散型アプローチは多種多様な高忠実度サンプルを合成し,生成することを示した。
論文 参考訳(メタデータ) (2023-08-10T13:49:26Z) - Low-Light Image Enhancement with Wavelet-based Diffusion Models [50.632343822790006]
拡散モデルは画像復元作業において有望な結果を得たが、時間を要する、過剰な計算資源消費、不安定な復元に悩まされている。
本稿では,DiffLLと呼ばれる高能率かつ高能率な拡散型低光画像強調手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T03:08:28Z) - VideoFusion: Decomposed Diffusion Models for High-Quality Video
Generation [88.49030739715701]
本研究は, フレームごとのノイズを, 全フレーム間で共有されるベースノイズ, 時間軸に沿って変化する残雑音に分解することで, 拡散過程を分解する。
様々なデータセットの実験により,ビデオフュージョンと呼ばれる我々の手法が,高品質なビデオ生成において,GANベースと拡散ベースの両方の選択肢を上回ることが確認された。
論文 参考訳(メタデータ) (2023-03-15T02:16:39Z) - Q-Diffusion: Quantizing Diffusion Models [52.978047249670276]
ポストトレーニング量子化(PTQ)は、他のタスクに対するゴーツー圧縮法であると考えられている。
本稿では,一意なマルチステップパイプラインとモデルアーキテクチャに適した新しいPTQ手法を提案する。
提案手法は,完全精度の非条件拡散モデルを同等の性能を維持しつつ4ビットに定量化できることを示す。
論文 参考訳(メタデータ) (2023-02-08T19:38:59Z) - Learning End-to-End Channel Coding with Diffusion Models [22.258823033281356]
我々は、生成モデル、特に、画像ベースタスクにおける生成の質の向上を示す拡散モデルと呼ばれる新しい有望な手法に焦点を当てた。
無線E2Eシナリオでは拡散モデルが利用可能であり,Wasserstein GANと同等に動作すると同時に,より安定したトレーニング手順と,テスト時の一般化能力も向上することを示す。
論文 参考訳(メタデータ) (2023-02-03T13:11:57Z) - Fast Inference in Denoising Diffusion Models via MMD Finetuning [23.779985842891705]
拡散モデルの高速サンプリング法であるMDD-DDMを提案する。
我々のアプローチは、学習した分布を所定の予算のタイムステップで微調整するために、最大平均離散性(MMD)を使用するという考え方に基づいている。
提案手法は,広範に普及した拡散モデルで要求されるわずかな時間で高品質なサンプルを生成できることが示唆された。
論文 参考訳(メタデータ) (2023-01-19T09:48:07Z) - Fast Sampling of Diffusion Models via Operator Learning [74.37531458470086]
我々は,拡散モデルのサンプリング過程を高速化するために,確率フロー微分方程式の効率的な解法であるニューラル演算子を用いる。
シーケンシャルな性質を持つ他の高速サンプリング手法と比較して、並列復号法を最初に提案する。
本稿では,CIFAR-10では3.78、ImageNet-64では7.83の最先端FIDを1モデル評価環境で達成することを示す。
論文 参考訳(メタデータ) (2022-11-24T07:30:27Z) - Low Complexity Channel estimation with Neural Network Solutions [1.0499453838486013]
我々は、ダウンリンクシナリオでチャネル推定を実現するために、一般的な残差畳み込みニューラルネットワークをデプロイする。
チャネル推定における他のディープラーニング手法と比較して,平均二乗誤差計算の改善が示唆された。
論文 参考訳(メタデータ) (2022-01-24T19:55:10Z) - Deep Diffusion Models for Robust Channel Estimation [1.7259824817932292]
深部拡散モデルを用いたマルチインプット・マルチアウトプット(MIMO)チャネル推定のための新しい手法を提案する。
提案手法は,高次元空間の任意の点における無線チャネルのログ状勾配を推定するために訓練されたディープニューラルネットワークを用いている。
論文 参考訳(メタデータ) (2021-11-16T01:32:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。