論文の概要: Learning End-to-End Channel Coding with Diffusion Models
- arxiv url: http://arxiv.org/abs/2309.10505v2
- Date: Thu, 21 Sep 2023 14:45:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 11:39:59.441853
- Title: Learning End-to-End Channel Coding with Diffusion Models
- Title(参考訳): 拡散モデルを用いたエンドツーエンドチャネル符号化の学習
- Authors: Muah Kim, Rick Fritschek, and Rafael F. Schaefer
- Abstract要約: 拡散モデルに基づくエンドツーエンドのチャネル符号化フレームワークを提案する。
様々なチャネルモデルを用いたシミュレーションにより,拡散モデルがチャネル分布を正確に学習できることが確かめられる。
また,高速化サンプリングアルゴリズムを適用した場合のサンプリング品質とサンプリング速度のトレードオフについても検討する。
- 参考スコア(独自算出の注目度): 19.80498913496519
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The training of neural encoders via deep learning necessitates a
differentiable channel model due to the backpropagation algorithm. This
requirement can be sidestepped by approximating either the channel distribution
or its gradient through pilot signals in real-world scenarios. The initial
approach draws upon the latest advancements in image generation, utilizing
generative adversarial networks (GANs) or their enhanced variants to generate
channel distributions. In this paper, we address this channel approximation
challenge with diffusion models, which have demonstrated high sample quality in
image generation. We offer an end-to-end channel coding framework underpinned
by diffusion models and propose an efficient training algorithm. Our
simulations with various channel models establish that our diffusion models
learn the channel distribution accurately, thereby achieving near-optimal
end-to-end symbol error rates (SERs). We also note a significant advantage of
diffusion models: A robust generalization capability in high signal-to-noise
ratio regions, in contrast to GAN variants that suffer from error floor.
Furthermore, we examine the trade-off between sample quality and sampling
speed, when an accelerated sampling algorithm is deployed, and investigate the
effect of the noise scheduling on this trade-off. With an apt choice of noise
scheduling, sampling time can be significantly reduced with a minor increase in
SER.
- Abstract(参考訳): ディープラーニングによるニューラルエンコーダのトレーニングは、バックプロパゲーションアルゴリズムによって異なるチャネルモデルを必要とする。
この要件は、実世界のシナリオでパイロット信号を介してチャネル分布またはその勾配を近似することで回避することができる。
最初のアプローチは、GAN(Generative Adversarial Network)またはその拡張版を利用して、チャネル分布を生成する、画像生成の最新の進歩に導かれる。
本稿では,この拡散モデルにおけるチャネル近似問題に対処し,画像生成において高いサンプル品質を示す。
拡散モデルに基づくエンドツーエンドのチャネルコーディングフレームワークを提供し、効率的なトレーニングアルゴリズムを提案する。
様々なチャネルモデルを用いたシミュレーションにより、拡散モデルはチャネル分布を正確に学習し、ほぼ最適のシンボル誤り率(SER)を実現する。
高い信号-雑音比領域におけるロバストな一般化能力は、エラーフロアに苦しむGAN変種とは対照的である。
さらに,高速化サンプリングアルゴリズムを適用した場合のサンプル品質とサンプリング速度のトレードオフについて検討し,このトレードオフに対するノイズスケジューリングの影響について検討した。
ノイズスケジューリングの適度な選択により、SERのわずかな増加とともにサンプリング時間を著しく短縮することができる。
関連論文リスト
- Pruning then Reweighting: Towards Data-Efficient Training of Diffusion Models [33.09663675904689]
データセットプルーニングの観点から,効率的な拡散訓練について検討する。
GAN(Generative Adversarial Network)のような生成モデルに対するデータ効率トレーニングの原則に着想を得て、まず、GANで使用されるデータ選択スキームをDMトレーニングに拡張する。
生成性能をさらに向上するため,クラスワイド・リウェイト方式を採用する。
論文 参考訳(メタデータ) (2024-09-27T20:21:19Z) - Diffusion Forcing: Next-token Prediction Meets Full-Sequence Diffusion [61.03681839276652]
拡散強制(Diffusion Forcing)は、拡散モデルをトレーニングし、トークンの集合に独立した音レベルを付与する、新たなトレーニングパラダイムである。
因果的次トーケン予測モデルを訓練して1つまたは複数の未来のトークンを生成することで、シーケンス生成モデルに拡散強制を適用する。
論文 参考訳(メタデータ) (2024-07-01T15:43:25Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - Generative Diffusion Models for Radio Wireless Channel Modelling and
Sampling [11.09458914721516]
チャネルモデリングの複雑さと高品質な無線チャネルデータの収集コストが大きな課題となっている。
本稿では,拡散モデルに基づくチャネルサンプリング手法を提案する。
モード崩壊や不安定なトレーニングに苦しむ既存のGANベースのアプローチと比較して,拡散型アプローチは多種多様な高忠実度サンプルを合成し,生成することを示した。
論文 参考訳(メタデータ) (2023-08-10T13:49:26Z) - Diff-Instruct: A Universal Approach for Transferring Knowledge From
Pre-trained Diffusion Models [77.83923746319498]
本稿では,任意の生成モデルの学習を指導するDiff-Instructというフレームワークを提案する。
Diff-Instructは、最先端の単一ステップ拡散モデルであることを示す。
GANモデルの精製実験により、Diff-InstructはGANモデルの事前訓練されたジェネレータを一貫して改善できることが示されている。
論文 参考訳(メタデータ) (2023-05-29T04:22:57Z) - Learning End-to-End Channel Coding with Diffusion Models [22.258823033281356]
我々は、生成モデル、特に、画像ベースタスクにおける生成の質の向上を示す拡散モデルと呼ばれる新しい有望な手法に焦点を当てた。
無線E2Eシナリオでは拡散モデルが利用可能であり,Wasserstein GANと同等に動作すると同時に,より安定したトレーニング手順と,テスト時の一般化能力も向上することを示す。
論文 参考訳(メタデータ) (2023-02-03T13:11:57Z) - Modiff: Action-Conditioned 3D Motion Generation with Denoising Diffusion
Probabilistic Models [58.357180353368896]
本稿では,現実的で多様な3D骨格に基づく運動生成問題に対処するために,拡散確率モデル(DDPM)の利点を生かした条件付きパラダイムを提案する。
我々はDDPMを用いてカテゴリ的動作で条件付けられた動作列の可変数を合成する先駆的な試みである。
論文 参考訳(メタデータ) (2023-01-10T13:15:42Z) - MIMO-GAN: Generative MIMO Channel Modeling [13.277946558463201]
チャネル入力出力の測定から統計的チャネルモデルを学習するための生成チャネルモデリングを提案する。
我々は、GANの進歩を活用し、観測された測定値からチャネル上の暗黙の分布を学習するのに役立つ。
論文 参考訳(メタデータ) (2022-03-16T12:36:38Z) - Deep Diffusion Models for Robust Channel Estimation [1.7259824817932292]
深部拡散モデルを用いたマルチインプット・マルチアウトプット(MIMO)チャネル推定のための新しい手法を提案する。
提案手法は,高次元空間の任意の点における無線チャネルのログ状勾配を推定するために訓練されたディープニューラルネットワークを用いている。
論文 参考訳(メタデータ) (2021-11-16T01:32:11Z) - Learning to Perform Downlink Channel Estimation in Massive MIMO Systems [72.76968022465469]
大規模マルチインプット・マルチアウトプット(MIMO)システムにおけるダウンリンク(DL)チャネル推定について検討する。
一般的なアプローチは、チャネル硬化によって動機付けられた推定値として平均値を使用することである。
本稿では2つの新しい推定法を提案する。
論文 参考訳(メタデータ) (2021-09-06T13:42:32Z) - Operation-Aware Soft Channel Pruning using Differentiable Masks [51.04085547997066]
本稿では,データ駆動型アルゴリズムを提案する。このアルゴリズムは,操作特性を利用して,ディープニューラルネットワークを異なる方法で圧縮する。
我々は大規模な実験を行い、出力ネットワークの精度で優れた性能を達成する。
論文 参考訳(メタデータ) (2020-07-08T07:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。