論文の概要、ライセンス

# (参考訳) 変分オートエンコーダを用いたMMSEチャネル推定 [全文訳有]

Variational Autoencoder Leveraged MMSE Channel Estimation ( http://arxiv.org/abs/2205.05345v1 )

ライセンス: CC BY 4.0
Michael Baur, Benedikt Fesl, Michael Koller, Wolfgang Utschick(参考訳) 本稿では,データ駆動チャネル推定のための変分オートエンコーダ(vae)を提案する。 真かつ未知のチャネル分布は、vaeによって新しい方法で条件付きガウス分布としてモデル化され、各第1および第2次条件付きモーメントによってパラメータ化される。 その結果、vaeの潜在サンプルに条件づけられた変種における線形最小平均二乗誤差(lmmse)推定器は最適なmse推定器に近似することがわかった。 さらに,VAEに基づくチャネル推定器がMMSEチャネル推定器を近似する方法について論じる。 本稿では,トレーニングと推定に使用するデータが異なる3種類のVAE推定器を提案する。 まず,推定時にVAEの入力時に完全に既知のチャネル状態が与えられると,推定シナリオのベンチマーク結果として機能する推定器が得られることを示す。 次に,訓練段階においてのみ,あるいは全く必要とされない完全既知のチャネル状態情報が必要となるような,実現可能なアプローチを提案する。 3GPP と QuaDRiGa のチャネルデータによるシミュレーション結果から,他のチャネル推定法と比較して,実用的アプローチとVAE 手法の優位性が小さいことを示す。

We propose to utilize a variational autoencoder (VAE) for data-driven channel estimation. The underlying true and unknown channel distribution is modeled by the VAE as a conditional Gaussian distribution in a novel way, parameterized by the respective first and second order conditional moments. As a result, it can be observed that the linear minimum mean square error (LMMSE) estimator in its variant conditioned on the latent sample of the VAE approximates an optimal MSE estimator. Furthermore, we argue how a VAE-based channel estimator can approximate the MMSE channel estimator. We propose three variants of VAE estimators that differ in the data used during training and estimation. First, we show that given perfectly known channel state information at the input of the VAE during estimation, which is impractical, we obtain an estimator that can serve as a benchmark result for an estimation scenario. We then propose practically feasible approaches, where perfectly known channel state information is only necessary in the training phase or is not needed at all. Simulation results on 3GPP and QuaDRiGa channel data attest a small performance loss of the practical approaches and the superiority of our VAE approaches in comparison to other related channel estimation methods.
公開日: Wed, 11 May 2022 08:45:54 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Variational Autoencoder Leveraged MMSE 変分オートエンコーダを用いたMMSE 0.52
Channel Estimation Michael Baur, Benedikt Fesl, Michael Koller, and Wolfgang Utschick チャネル推定 Michael Baur, Benedikt Fesl, Michael Koller, Wolfgang Utschick 0.57
School of Computation, Information and Technology, Technical University of Munich, Germany ドイツ・ミュンヘン工科大学 計算・情報・技術学部 0.54
Email: {mi.baur, benedikt.fesl, michael.koller, utschick}@tum.de メール: {mi.baur, benedikt.fesl, Michael.koller, utschick}@tum.de 0.70
2 2 0 2 y a M 1 1 2 2 0 2 y a m 1 1 である。 0.54
] P S . s s e e [ ]p s。 s s e e である。 0.37
1 v 5 4 3 5 0 1 v 5 4 3 5 0 0.43
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Abstract—We propose to utilize a variational autoencoder (VAE) for data-driven channel estimation. 抽象 – データ駆動型チャネル推定に可変オートエンコーダ(VAE)を用いることを提案する。 0.72
The underlying true and unknown channel distribution is modeled by the VAE as a conditional Gaussian distribution in a novel way, parameterized by the respective first and second order conditional moments. 真かつ未知のチャネル分布は、vaeによって新しい方法で条件付きガウス分布としてモデル化され、各第1および第2次条件付きモーメントによってパラメータ化される。 0.74
As a result, it can be observed that the linear minimum mean square error (LMMSE) estimator in its variant conditioned on the latent sample of the VAE approximates an optimal MSE estimator. その結果、vaeの潜在サンプルに条件づけられた変種における線形最小平均二乗誤差(lmmse)推定器は最適なmse推定器に近似することがわかった。 0.74
Furthermore, we argue how a VAE-based channel estimator can approximate the MMSE channel estimator. さらに,VAEに基づくチャネル推定器がMMSEチャネル推定器を近似する方法について論じる。 0.65
We propose three variants of VAE estimators that differ in the data used during training and estimation. 本稿では,トレーニングと推定に使用するデータが異なる3種類のVAE推定器を提案する。 0.73
First, we show that given perfectly known channel state information at the input of the VAE during estimation, which is impractical, we obtain an estimator that can serve as a benchmark result for an estimation scenario. まず,推定時にVAEの入力時に完全に既知のチャネル状態が与えられると,推定シナリオのベンチマーク結果として機能する推定器が得られることを示す。 0.67
We then propose practically feasible approaches, where perfectly known channel state information is only necessary in the training phase or is not needed at all. 次に,訓練段階においてのみ,あるいは全く必要とされない完全既知のチャネル状態情報が必要となるような,実現可能なアプローチを提案する。 0.75
Simulation results on 3GPP and QuaDRiGa channel data attest a small performance loss of the practical approaches and the superiority of our VAE approaches in comparison to other related channel estimation methods. 3GPP と QuaDRiGa のチャネルデータによるシミュレーション結果から,他のチャネル推定法と比較して,実用的アプローチとVAE 手法の優位性が小さいことを示す。 0.85
Index Terms—Channel estimation, deep learning, variational 指標項-チャネル推定、ディープラーニング、変分 0.71
autoencoder, MMSE estimator, machine learning オートエンコーダ、mmse推定器、機械学習 0.76
I. INTRODUCTION I. イントロダクション 0.64
Machine learning (ML), and deep learning (DL) in specific, are promising candidates for further improvements of massive MIMO systems [1]. 機械学習(ML)とディープラーニング(DL)は、大規模なMIMOシステムのさらなる改善に期待できる候補である[1]。
訳抜け防止モード: 機械学習(ML)とディープラーニング(DL)を具体化する。 大規模MIMOシステムのさらなる改善に向けた有望な候補である[1 ]。
0.83
DL incorporates the characteristics of a communications scenario by training neural networks based on data stemming from that scenario. DLは、そのシナリオから派生したデータに基づいてニューラルネットワークをトレーニングすることで、通信シナリオの特徴を取り入れている。
訳抜け防止モード: DLは通信シナリオの特徴を取り入れる そのシナリオから派生したデータに基づいて ニューラルネットワークを訓練します
0.82
The acquired knowledge about the scenario can often be leveraged to outperform classical methods in typical tasks such as channel estimation. シナリオに関する獲得した知識は、しばしばチャネル推定のような典型的なタスクにおいて古典的手法よりも優れている。 0.67
The great performance of DL-based channel estimation has been demonstrated in a large number of publications, e g , see [2]–[5]. DLに基づくチャネル推定の優れた性能は、多くの出版物、例えば [2]–[5] で実証されている。 0.70
Roughly speaking, such approaches can either be specified as end-to-end or model-based learning [6] or as a mixture of both. 概して言えば、そのようなアプローチはエンドツーエンドまたはモデルベースの学習 [6] として、あるいは両方を混ぜて定義することができる。 0.62
While end-to-end approaches model the system as a black box and use neural networks to learn the unknown behavior, model-based approaches rely on analytical relationships which are parameterized using neural networks. エンドツーエンドのアプローチはシステムをブラックボックスとしてモデル化し、未知の振る舞いを学ぶためにニューラルネットワークを使用するが、モデルベースのアプローチはニューラルネットワークを使用してパラメータ化される分析関係に依存する。 0.62
In this work, we want to take a model-based approach for channel estimation with the help of DL. 本稿では,DLの助けを借りて,チャネル推定のためのモデルに基づくアプローチを提案する。 0.84
An approach closely related to ours is the recently proposed Gaussian mixture model (GMM)-based channel estimator [7], [8]. 最近提案されたガウス混合モデル (GMM) によるチャネル推定 [7], [8] のアプローチが, 我々のアプローチと密接に関連している。
訳抜け防止モード: 我々の近縁なアプローチは、最近提案されたガウス混合モデル (GMM) ベースのチャネル推定器 [7 ] である。 [ 8 ] .
0.84
The estimator This work received funding by the Bavarian Ministry of Economic Affairs, Regional Development and Energy as part of the project 6G Future Lab Bavaria. 推定器 この研究はバイエルン経済開発省からproject 6g future lab bavariaの一部として資金提供を受けた。 0.60
It also received funding by the German Federal Ministry of Education and Research as part of the project 6G-life. また、ドイツ連邦教育研究省からプロジェクト6g-lifeの一環として資金援助を受けた。 0.72
is proven to converge to the true conditional mean estimator for an infinite number of mixture components, and at the same time it was shown that a small number of components achieves a good performance in practice. 無限個の混合成分の真の条件平均推定器に収束することが証明され、同時に少数の成分が実際に優れた性能を達成することが示されている。 0.71
The idea is to fit a GMM to channel data, which is used afterwards for channel estimation based on noisy observations. その考え方は、GMMをチャネルデータに適合させることであり、その後ノイズ観測に基づいてチャネル推定に使用される。 0.74
The membership to a mixing component in a GMM can be interpreted as a discrete hidden or latent variable. GMMにおける混合成分のメンバシップは、離散的な隠蔽変数または潜伏変数と解釈できる。 0.72
In contrast, the variational autoencoder (VAE) method [9], [10], which shares common features with the GMM approach, uses a continuous latent space to learn the distribution of the underlying data. 対照的に、変分オートエンコーダ (vae) メソッド [9], [10] は gmm アプローチと共通する特徴を共有し、基礎となるデータの分布を学ぶために連続的な潜在空間を使用する。
訳抜け防止モード: 対照的に、変動オートエンコーダ (VAE ) メソッド [9 ] は、 GMMアプローチと共通の特徴を共有している[10]。 連続的な潜伏空間を使い 基礎となるデータの分布を 学習することです
0.85
In a variety of tasks in communications, the VAE showed its effectiveness, for instance in channel equalization [11]. コミュニケーションにおける様々なタスクにおいて、VAEは、例えばチャネル等化[11]において、その効果を示した。 0.70
However, to our knowledge, there are no approaches in the literature that use the VAE for channel estimation. しかしながら、我々の知識では、チャンネル推定にvaeを使う文献にはアプローチがない。 0.66
Our contributions in this work are as follows. この作品への私たちの貢献は以下の通りです。 0.62
We propose a framework that allows to employ the VAE for channel estimation. 本稿では,VAEをチャネル推定に用いるためのフレームワークを提案する。 0.73
To this end, we train a VAE to generate a conditional mean and covariance for each channel realization, which can subsequently be used to determine the individual linear minimum mean square error (LMMSE) channel estimator for a given observation of the channel. この目的のために、各チャネル実現のための条件平均と共分散を生成するためにVAEを訓練し、その後、チャネルの所定の観測に対する個々の線形最小平均二乗誤差(LMMSE)チャネル推定器を決定するために使用できる。 0.79
Due to the inherent structure of the VAE, the probability distribution of the underlying radio scenario is approximated as a conditionally Gaussian distribution. VAEの固有の構造のため、基礎となる無線シナリオの確率分布は条件付きガウス分布として近似される。 0.82
The VAE thus provides an overall prior information about channel state conditions. したがって、VAEはチャネル状態の状態に関する全体的な事前情報を提供する。 0.61
Further analysis shows that the VAE channel estimator is able to asymptotically approximate the MMSE estimator. さらに解析した結果,VAEチャネル推定器はMMSE推定器を漸近的に近似できることがわかった。
訳抜け防止モード: さらなる分析は VAEチャネル推定器は、MMSE推定器を漸近的に近似することができる。
0.70
In total, we propose three variants of VAEbased channel estimators. 本稿では,3種類のVAEチャネル推定器を提案する。 0.65
We first analyze the full potential of the VAE by allowing genie-knowledge of the true underlying channel for the latent encoding. 最初にvaeのポテンシャルを解析し、潜在符号化の真のチャネルをgenie-knowledgeで確認する。 0.62
We then propose practically feasible approaches that either use noiseless channel data solely in the training phase or only work with noisy data for both training and testing. 次に,学習段階のみにノイズのないチャネルデータを使用するか,トレーニングとテストの両方でノイズデータを扱うか,という実現可能なアプローチを提案する。 0.73
Our simulations highlight that these approaches provide strong channel estimators close to the genie-based estimator, which offers a lot of potential, also for a prospective application to other system models. 我々のシミュレーションでは、これらの手法がジェニーベース推定器に近い強力なチャネル推定器を提供しており、他のシステムモデルへの将来的な応用にも多くの可能性を秘めている。 0.62
II. SYSTEM AND CHANNEL MODEL II。 システム及びチャネルモデル 0.70
In this work, we consider a single-input multiple-output (SIMO) communications scenario. 本研究では,単一入力多重出力(SIMO)通信シナリオについて考察する。 0.69
A base station (BS) equipped with M antennas receives uplink training signals from a single antenna mobile terminal (MT). Mアンテナを備えた基地局(BS)は、単一のアンテナ移動端末(MT)からアップリンク訓練信号を受信する。 0.80
In particular, at the BS after decorrelating the pilot signal, noisy observations (1) 特に、パイロット信号のデコレーション後のbsでは、騒がしい観測(第1報) 0.70
y = h + n ∈ CM y = h + n ∈ CM 0.42
This work has been submitted to the IEEE for possible publication. この作品はieeeに提出され、出版される可能性がある。 0.51
Copyright may be transferred without notice, after which 著作権は無通知で譲渡することができる。 0.62
this version may no longer be accessible. このバージョンはもはやアクセスできないかもしれない。 0.68
英語(論文から抽出)日本語訳スコア
are received, where the channel h is perturbed with Gaussian noise n ∼ NC(0, Σ). チャネル h はガウスノイズ n, NC(0, Σ) で摂動される。 0.54
We assume that the BS is equipped with a uniform linear array (ULA) with half-wavelength spacing. BSは、半波長間隔を持つ一様線形アレイ(ULA)を備えていると仮定する。 0.74
The channel covariance of a ULA is known to have a Toeplitz structure, which can be asymptotically approximated by a circulant matrix for a large number of antennas [12]. ULAのチャネル共分散はToeplitz構造を持つことが知られており、多数のアンテナ[12]に対して循環行列により漸近的に近似することができる。 0.85
Diagonalization of a circulant matrix C can be obtained with the help of the discrete Fourier transform (DFT) matrix F ∈ CM×M : (2) 循環行列 C の対角化は離散フーリエ変換(DFT)行列 F ∈ CM×M : (2) 0.55
C = F H diag(c)F , C = F H diag(c)F , 0.43
c ∈ RM . c ∈ rm である。 0.63
In Section III, we will use this circulant approximation to design a channel estimator in three variations. 第3節では、この循環近似を用いて、チャネル推定器を3つのバリエーションで設計する。
訳抜け防止モード: 第3節では この循環近似を使います チャネル推定器を3つのバリエーションで設計する。
0.68
Moreover, we consider different channel models in this work to validate our method. さらに本研究では,提案手法を検証するために異なるチャネルモデルを検討する。 0.71
The 3rd Generation Partnership Project (3GPP) defines spatial channel models which allow the channel to be modeled as [13] 第3世代パートナーシッププロジェクト(3gpp)では,[13]としてチャネルをモデル化可能な空間チャネルモデルを定義している。 0.78
h | δ ∼ NC(0, Cδ) h | δ ] nc(0, cδ) である。 0.73
(3) where the random vector δ encodes the information about path gains and angles of arrival that define the propagation clusters that belong to the channel. (3) ここで、ランダムベクトルδは、チャネルに属する伝播クラスタを定義する経路ゲインと到着角に関する情報を符号化する。 0.59
Since we consider a SIMO scenario here, the covariance ここではSIMOシナリオを考えるので、共分散 0.74
(cid:90) π Cδ = (→90)π Cδ = 0.42
−π g(ϑ; δ)a(ϑ)a(ϑ) H dϑ −π g(θ; δ)a(θ)a(θ) H dθ 0.42
represents the receive-side covariance. 受信側共分散を表す。 0.59
The terms g(ϑ; δ) ≥ 0 and a(ϑ) depict a power angular spectrum and the array steering vector, respectively. g(θ; δ) ≥ 0 と a(θ) はそれぞれパワー角スペクトルと配列ステアリングベクトルを表している。 0.73
It has to be noted that, although the channel is modeled as conditionally Gaussian, without knowledge of δ, which cannot be assumed in practice, the channels are clearly not Gaussian distributed. チャネルは条件付きガウシアンとしてモデル化されているが、δ の知識がなければ実際には仮定できないが、チャネルは明らかにガウシアン分布ではないことに注意する必要がある。 0.69
Also, we consider a single snapshot scenario, where for each channel realization an independent realization of δ is drawn. また、1つのスナップショットシナリオを考慮し、各チャネルの実現に対してδの独立な実現が引き出される。 0.74
More realistic channels can be obtained with the QuaDRiGa channel simulator [14], [15]. QuaDRiGaチャネルシミュレータ[14],[15]でより現実的なチャネルを得ることができる。 0.76
Therein, channels are modeled as a superposition of L propagation paths such that チャネルはLの伝播経路の重ね合わせとしてモデル化される。 0.76
L(cid:88) (cid:96)=1 l(cid:88) (cid:96)=1。 0.51
h = g(cid:96) exp(−2πjfcτ(cid:96)) h = g(cid:96) exp(−2πjfcτ(cid:96) 0.40
where the carrier frequency is denoted as fc and the delay of the (cid:96)-th path as τ(cid:96). キャリア周波数を fc と表し、(cid:96)-th パスの遅延を τ(cid:96) と表す。 0.77
The vector g(cid:96) expresses the attenuation characteristics between every antenna pair, as well as the antenna radiation pattern and polarization. ベクトルg(cid:96)は、各アンテナ対間の減衰特性と、アンテナ放射パターンと偏光を表現する。 0.76
After generation, the channels are post-processed to remove the path gain, as described in the QuaDRiGa documentation [15]. 生成後、チャネルは後処理され、QuaDRiGaドキュメント[15]に記載されているように、パスゲインが削除されます。 0.60
For both 3GPP and QuaDRiGa specifications, we create a training dataset consisting of Nt = 105 samples and a test dataset consisting of Nv = 104 samples. 3GPPおよびQuaDRiGa仕様の両方に対して、Nt = 105サンプルとNv = 104サンプルからなるテストデータセットからなるトレーニングデータセットを作成する。 0.86
III. VAE FOR CHANNEL ESTIMATION III。 チャネル推定のためのvae 0.53
The aim of this section is to briefly introduce the concept behind the VAE and which objective it follows. 本節の目的は、VAEの背景にある概念とそれに続く目的を簡潔に紹介することである。 0.71
Afterwards, we present an approach how a VAE, that is trained on channel data in a completely unsupervised manner, can be leveraged for channel estimation. その後,チャネルデータに完全に教師なしの方法で訓練されたvaeをチャネル推定に活用する手法を提案する。 0.61
Fig. 1. Structure of a VAE with Gaussian posteriors for qφ(z|x) and pθ(x|z). 図1。 qφ(z|x) と pθ(x|z) に対するガウス後部を持つ vae の構造 0.52
The encoder and decoder represent neural networks. エンコーダとデコーダはニューラルネットワークを表す。 0.82
A. VAE Preliminaries Variational Inference (VI) builds the foundation of the VAE where the optimization of the evidence lower bound (ELBO) is the central objective [16]. A. VAE 予備 変分推論(VI)は、エビデンスローバウンド(ELBO)の最適化が中心目的であるVAEの基礎を構築する[16]。
訳抜け防止モード: A. VAE 予備 変分推論(VI)は、VAEの基礎を構築する 証拠の低い境界(ELBO )の最適化は 中心目標 [16 ] である。
0.80
A well-known decomposition of the log-likelihood of a data point x ∼ p(x) reads as log p(x) = L(q) + DKL(q(z|x)(cid:107) p(z|x)) (cid:21) データポイント x のlog-likelihoodのよく知られた分解は、log p(x) = l(q) + dkl(q(z|x)(cid:107) p(z|x)) (cid:21) と読む。 0.84
with the ELBO L(q) and the Kullback-Leibler divergence ELBO L(q) と Kullback-Leibler の発散で 0.80
(cid:20) (4) (cid:20) (4) 0.41
DKL(q(z|x)(cid:107) p(z|x)) = Eq(z|x) DKL(q(z|x)(cid:107) p(z|x)) = Eq(z|x) 0.42
log q(z|x) p(z|x) ログ q(z|x) p(z|x) 0.56
. VI introduces the variational distribution q(z|x) ∈ Q, which belongs to a family of distributions Q, and depends on the so-called latent vector z. . VI は分布 Q の族に属する変分分布 q(z|x) ∈ Q を導入し、いわゆる潜在ベクトル z に依存する。
訳抜け防止モード: . VI は分布 Q の族に属する変分分布 q(z|x ) ∈ Q を導入する。 そして、そのような-潜在ベクトル z に依存する。
0.63
Its purpose is to approximate the true posterior distribution p(z|x) as closely a possible. その目的は、真の後方分布 p(z|x) を可能な限り近似することである。 0.73
A maximization of the ELBO achieves two goals: ELBOの最大化は2つの目標を達成する。 0.69
1) the data loglikelihood is maximized, and 1)データのログ化が最大化され、 0.74
2) the KL divergence between q(z|x) and the posterior p(z|x) is minimized. 2) q(z|x) と後 p(z|x) の間の KL の発散は最小化される。 0.74
The VAE optimizes the ELBO with the help of neural networks and the reparameterization trick [9], [10]. VAEは、ニューラルネットワークと再パラメータ化トリック [9], [10] の助けを借りて、ELBOを最適化する。 0.74
This makes VI broadly accessible as it enables to process large amounts of data in a straight-forward way. これにより、VIは大量のデータを直接フォワードで処理できるため、幅広いアクセスが可能である。 0.72
The drawing in Fig 1 illustrates the functionality of the VAE. 図1の図は、VAEの機能を示しています。 0.72
For training of a VAE, it is beneficial to express the ELBO as L(q) = Eqφ(z|x) [log pθ(x|z)] − DKL(qφ(z|x)(cid:107) p(z)). VAEの訓練には、ELBO を L(q) = Eqφ(z|x) [log pθ(x|z)] − DKL(qφ(z|x)(cid:107) p(z)) と表現することが有用である。 0.84
The parameters θ and φ highlight certain parameterizations for the posteriors pθ(x|z) and qφ(z|x), respectively. パラメータ θ と φ はそれぞれ後続 pθ(x|z) と qφ(z|x) のパラメータ化を強調する。 0.83
Their technical implementation is represented by the encoder and decoder of the VAE. 彼らの技術的実装は、VAEのエンコーダとデコーダによって表現されている。 0.59
(5) At this point, we must decide for a type and structure of the distributions that appear in (5). (5) この時点では、(5) に現れる分布の型と構造を決定する必要がある。 0.56
A common choice for this is to assume diagonal Gaussian distributions. これに対する一般的な選択は、対角ガウス分布を仮定することである。 0.59
Consequently, the probability distributions involved are したがって、関連する確率分布は 0.86
= N (0, I), = n (0, i) 0.35
p(z) pθ(x|z) = NC(m(z), diag(c(z))), and qφ(z|x) = N (µ(x), diag(σ2(x))). p(z) pθ(x|z) = NC(m(z), diag(c(z))) および qφ(z|x) = N (μ(x), diag(σ2(x)))。 0.91
With these definitions, let us examine Fig 1 in more detail. これらの定義で、Fig 1をもっと詳しく調べてみましょう。 0.61
The encoder takes a data sample x and maps it to the mean value µ(x) and standard deviation vector σ(x) of qφ(z|x). エンコーダはデータサンプル x を取り、平均値 μ(x) と qφ(z|x) の標準偏差ベクトル σ(x) にマッピングする。 0.81
A sample ε from a standard Gaussian distribution in combination with µ(x) and σ(x) is used to obtain a reparameterized sample z = µ(x) + σ(x)× ε, the latent variable. 標準ガウス分布からのサンプルεを μ(x) と σ(x) と組み合わせて、再パラメータ化されたサンプル z = μ(x) + σ(x)× ε を得る。
訳抜け防止モード: μ(x) と組み合わせた標準ガウス分布からのサンプルε σ(x) は 再パラメータ化されたサンプル z = μ(x ) + σ(x)× ε を得るには、潜在変数である。
0.85
The sample z ∈ RL is fed into the decoder in the last step, to obtain the サンプル z ∈ rl は最後のステップでデコーダに供給され、それを得る。 0.66
xEncoderqφ(z|x)+×ε∼N(0,I)pθ(x|z)Decoderm(z)c(z)µ(x)σ(x)z xEncoderqφ(z|x)+×ε\N(0,I)pθ(x|z)Decoderm(z)c(z)μ(x)σ(x)z 0.44
英語(論文から抽出)日本語訳スコア
mean value m(z) and covariance vector c(z) of the Gaussian distribution pθ(x|z). ガウス分布 pθ(x|z) の平均値 m(z) と共分散ベクトル c(z) 。 0.83
Additionally, the usage of diagonal Gaussians lets us find closed-form and simple-to-compute expressions for the terms in the optimization objective in (5). さらに、対角ガウス式を用いることで、最適化目的項の閉形式と単純計算式を (5) で見つけることができる。 0.72
The expectation on the left can be approximated with Monte-Carlo samples z(k) ∼ (cid:41) K(cid:88) qφ(z|x), k = 1, . . . , K, such that Eqφ(z|x) [log pθ(x|z)] is log ci(z(k)) − |xi − mi(z(k))|2 左の期待値はモンテカルロのサンプル z(k) に近似できる(cid:41) k(cid:88) q φ(z|x), k = 1, . . . . . , k であり、eq φ(z|x) [log pθ(x|z)] は log ci(z(k)) − |xi − mi(z(k))|2 である。 0.86
−M log π − −m log π − である。 0.57
M(cid:88) (cid:40) M(第88回) (系統:40) 0.63
ci(z(k)) . ci(z(k)) . 0.42
(6) The subscript i symbolizes that the i-th element of the respective vector is selected, e g , xi is the i-th element of x. (6)サブスクリプトiは、各ベクトルのi番目の要素が選択されたことを象徴し、例えば、xiはxのi番目の要素である。 0.67
The KL-term DKL(qφ(z|x)(cid:107) p(z)) results in i (x) + µi(x)2 + σ2 KL-項 DKL(qφ(z|x)(cid:107) p(z)) は i (x) + μi(x)2 + σ2 となる 0.87
i (x)(cid:9) i (x)(cid:9) 0.47
(cid:32) L(cid:88) (cid:32)L(cid:88) 0.39
(cid:33) (cid:8) (cid:33) (第8話) 0.43
(7) . k=1 (7) . k=1 である。 0.39
m=1 1 2 − log σ2 m=1。 1 2 log σ2 である。 0.45
l=1 − L It should be noted that we can approximate the true covariance of the channels with the presented VAE. l=1 -L 提案されたVAEとチャネルの真の共分散を近似できることに注意する必要がある。 0.42
This is the case because the covariance is Toeplitz structured, which can be approximated by a circulant matrix as described in Section II and [12], [17]. これは、共分散がトエプリッツ構造であるためであり、第二節および[12],[17]で記述される循環行列によって近似することができる。 0.70
Suppose now that the VAE receives the input x = h. VAE が入力 x = h を受け取ると仮定する。 0.69
We would like to have the corresponding channel covariance of the form (2) at the decoder output. デコーダ出力において、フォーム (2) の対応するチャネル共分散を持たせたい。 0.65
This, however, would require unconstrained (and in particular non-diagonal) covariance matrices at the decoder output. しかし、これはデコーダ出力の非拘束的(特に対角的でない)共分散行列を必要とする。 0.75
As a remedy, we Fourier-transform all channel samples and feed x = F h into the encoder because the corresponding channel covariance is then given be the diagonal matrix diag(c) which can be readily modeled by the decoder. 修正として、すべてのチャネルサンプルをフーリエ変換し、対応するチャネル共分散がデコーダによって容易にモデル化できる対角行列diag(c)として与えられるため、x = f h をエンコーダに供給する。 0.80
B. MMSE Approximation of the VAE Channel Estimator B. VAEチャネル推定器のMMSE近似 0.79
In this section, we want to motivate to use the VAE for channel estimation. 本稿では,VAEをチャネル推定に用いる動機付けについて述べる。 0.61
To this end, we rewrite the MSE-optimal conditional mean estimator and find structural relations to the VAE, resulting in an approximation of the optimal channel estimator as we discuss in the remainder of this section. この目的のために, MSE-最適条件平均推定器を書き換え, VAEの構造的関係を見いだし, 本節の残りの部分で述べるように, 最適なチャネル推定器を近似する。 0.75
For any arbitrarily distributed random variable h, we can always find a condition which makes it Gaussian. 任意の分散確率変数 h に対して、常にガウス型となる条件を見つけることができる。 0.72
For example, if t is a Gaussian random variable, we can write h = (h−t)+t and h | (h − t) is Gaussian. 例えば、t がガウス確率変数であれば、h = (h−t)+t と書くことができ、h | (h−t) はガウス確率である。 0.69
Finding a suitable condition can be challenging—in particular if the distribution of h is not known. 適切な条件を見つけることは困難であり、特に h の分布が分かっていない場合である。 0.69
In the example, the condition depends on h itself. 例として、条件は h 自身に依存する。 0.78
The VAE’s goal is to achieve a conditional Gaussianity via the latent variable z so that we have VAEの目標は、潜在変数 z を通して条件付きガウス性を達成することである。 0.74
h | z ∼ NC(µh|z, Ch|z). h | z {\displaystyle h} nc(μh|z, ch|z) である。 0.45
(8) It is known that MMSE channel estimates are given by the conditional mean E[h | y]. (8)MMSEチャネル推定は条件平均E[h | y]によって与えられることが知られている。 0.86
The law of total expectation lets us write (9) Assuming the VAE achieves its goal and (8) holds, we have a closed-form expression for the inner expectation due to the conditional Gaussianity [18]: E[h | z, y] = µh|z + Ch|z(Ch|z + Σ) 総予想法則により、(9) VAEがその目標を達成し、(8) が成り立つと、条件付きガウス性 [18]: E[h | z, y] = μh|z + Ch|z(Ch|z + Σ) による内予想に対する閉形式表現が得られる。 0.88
E[h | y] = Ez[E[h | z, y] | y]. e[h | y] = ez[e[h | z, y] | y] である。 0.74
−1(y − µh|z). −1(y − μh|z) である。 0.62
(10) Note that z depends on y through the encoder and µh|z and Ch|z are evaluated by the decoder of the VAE. (10) z はエンコーダを通して y に依存し、μh|z と Ch|z は VAE のデコーダによって評価される。 0.56
The outer expectation in (9) depends on the conditional distribution of p(z|y) that is approximated by qφ(z|x), which is used to evaluate (9) in our method. 9) の外側期待値は、qφ(z|x) によって近似される p(z|y) の条件分布に依存する。
訳抜け防止モード: 9 ) の外部予想は p(z|y ) の条件分布に依存する 近似は qφ(z|x ) で、この方法は (9 ) の評価に用いられる。
0.81
The vector x is the input of the encoder, whose design is discussed in detail in Section III-C, but it should be noted that x is a transformed version of y. ベクトル x はエンコーダの入力であり、その設計はセクション III-C で詳細に議論されているが、x は y の変換版であることに注意する必要がある。 0.80
For simplicity, assume x = y until further notice for the remainder of Section III-B. 単純性については、セクションiii-b の残りにさらに注意を向けるまで x = y と仮定する。 0.65
It remains to compute the outer expectation in (9) after plugging in (10). 9) で (10) を差し込んだ後、外側の期待値を計算し続ける。 0.74
To this end, recall the encoder’s objective (see also Fig 1): If x is its input, the encoder computes a mean µ(x) and a variance σ2(x) such that the latent representation z = µ(x)+ ε× σ(x) is obtained, which embodies samples from qφ(z|x). この目的のために、エンコーダの目的を思い出す(図1参照): x がその入力である場合、エンコーダは平均 μ(x) と分散 σ2(x) を計算し、潜在表現 z = μ(x)+ ε× σ(x) が得られ、qφ(z|x) からのサンプルが具現化される。 0.81
If we furthermore assume that p(z|y) is perfectly represented by qφ(z|x), we can approximate the outer expectation in (9) using samples of the form z(k) = µ(x) + ε(k) × σ(x) where every ε(k) is a sample of ε ∼ N (0, I). さらに、p(z|y) が qφ(z|x) で完全に表現されていると仮定すると、すべての ε(k) が ε (0, i) のサンプルである z(k) = μ(x) + ε(k) × σ(x) の形のサンプルを用いて (9) における外予想を近似することができる。 0.88
With sufficiently many samples z(k), k = 1, . . . , K, we are able to asymptotically approximate the MMSE channel estimator as a direct consequence of the law of large numbers [19], i.e., 十分多くのサンプル z(k), k = 1, . . . . . , k において、大きな数 [19] の法則の直接の結果として、mmseチャネル推定器を漸近的に近似することができる。 0.82
K(cid:88) k=1 K(第88回) k=1 である。 0.47
E[h | y] ≈ e[h | y] である。 0.59
1 K E[h | z(k), y]. 1K e[h | z(k), y] である。 0.53
(11) Note that the channel estimates on the right-hand side can still be efficiently computed with the VAE in combination with (10). (11) なお、右側のチャネル推定は、(10)と組み合わせて、vaeと効率的に計算できる。 0.48
To save computational complexity, we use only one sample—namely µ(x)—in our numerical experiments and still achieve remarkable results. 計算の複雑さを節約するために、数値実験では1つのサンプル(すなわちμ(x))しか使っていません。 0.68
Under this assumption, the estimator from (11) simplifies for K = 1 as この仮定の下で、 (11) からの推定子は k = 1 を単純化する。 0.70
E[h | y] ≈ E[h | z(1) = µ(x), y]. E[h | y] は E[h | z(1) = μ(x, y] である。 0.81
(12) For another motivation for approximating the outer expectation in (9) using only the mean µ(x), we can interpret σ(x) as the uncertainty of the encoder to produce a suitable latent representation. (12) 平均 μ(x) のみを用いて (9) の外側期待を近似する別の動機として、σ(x) をエンコーダの不確実性として解釈し、適切な潜在表現を生成することができる。 0.59
If the noise variance in (1) is small, we expect this uncertainty to be small so that all samples are close to µ(x) and z ≈ µ(x) holds. (1) のノイズ分散が小さい場合は、この不確かさが小さく、すべてのサンプルが μ(x) に近く、z が μ(x) に保たれることを期待する。 0.75
C. Channel Estimation with the VAE VAEを用いたC.チャネル推定 0.79
A common assumption, which we make here as well, is white noise, which yields Σ = ς 2I, with the noise variance ς 2 that is given in our experiments. ここでも一般的な仮定は白色雑音であり、これは実験で与えられるノイズ分散 ς 2 とともに Σ = ς 2I をもたらす。 0.67
For the LMMSE estimator in (10), it is necessary to know the conditional mean µh|z and covariance Ch|z of h given z to estimate the channel based on y. 10) における LMMSE 推定器では、条件平均 μh|z と h の共分散 Ch|z を知って y に基づいてチャネルを推定する必要がある。 0.81
A close look at Fig 1 reveals how the VAE can be used for channel estimation. Fig 1をよく見ると、VAEがチャネル推定にどのように使えるかが分かる。 0.72
For an input sample x, the VAE decoder delivers a conditional mean m(z) and a diagonal covariance c(z) that parameterize the distribution in (8). 入力サンプルxに対して、VAEデコーダは、(8)における分布をパラメータ化する条件平均m(z)と対角共分散c(z)を提供する。 0.84
As we use Fourier-transformed input samples for complexity savings as explained before, the quantities in (10) of the conditionally Gaussian are computed as 前述したようにフーリエ変換された入力サンプルを使用して複雑性を節約するので、条件付きガウスの(10)の量は計算される。 0.67
µh|z = F H m(z), Ch|z = F H diag(c(z))F . μh|z = F H m(z), Ch|z = F H diag(c(z))F である。 0.89
(13) In the following, we present three possible channel estimators that leverage the VAE. (13) 以下では、vaeを利用する3つのチャネル推定器について述べる。 0.46
All three estimators have in common 3つの推定器はすべて共通している 0.58
英語(論文から抽出)日本語訳スコア
that the VAEs can be trained offline before their application to channel estimation. VAEは、チャネル推定に適用される前にオフラインでトレーニングできる。 0.74
Moreover, all estimators use z = µ(x) as in (12) during the estimation phase after training. さらに、すべての推定器は、訓練後の推定フェーズで (12) のように z = μ(x) を使用する。 0.73
1): The transformed true channel x = F h is fed into the VAE encoder for both training and evaluation. 1)変換された真のチャネルx = Fhは、トレーニングと評価の両方のためにVAEエンコーダに入力される。 0.75
Its latent representation is the basis for the evaluation of the decoder likelihood model pθ(x|z) in (6). その潜在表現は (6) におけるデコーダ度モデル pθ(x|z) の評価の基礎である。 0.86
The outputs of the encoder, i.e., µ(x) and σ(x), are used to evaluate the KL-term in (7) during training. エンコーダの出力、すなわち μ(x) と σ(x) は、訓練中の (7) における kl 項を評価するために用いられる。 0.74
This estimator is supposed to produce the best estimation results because conditional mean and covariance at the decoder are inferred with the true channel at the encoder and its latent representation. この推定器は、デコーダの条件平均と共分散がエンコーダの真のチャネルとその潜在表現で推論されるため、最良の推定結果を生成する。 0.71
The relation z = µ(x) holds well in this situation as the noise variance is zero. この状況では、z = μ(x) の関係はノイズ分散が 0 であるため良好である。 0.81
In our simulations, we could also observe that the variance σ2(x) at the encoder is approximately zero which is a strong motivation for the usage of the estimator in (12). シミュレーションでは、エンコーダにおける分散 σ2(x) がおよそ 0 であり、これは (12) における推定器の使用の強い動機であることも観察できた。 0.76
Although this estimator even has the potential to outperform the conditional mean estimator E[h| y], as the true channel state information acts as side information, this estimator is obviously not applicable to a real scenario since it requires knowledge of the channel during the evaluation phase. この推定器は、条件平均推定器E[h| y]よりも優れる可能性さえも有るが、真のチャネル状態情報が側情報として作用するので、評価フェーズ中にチャネルの知識を必要とするため、明らかに実際のシナリオには適用されない。 0.69
Instead, it inspires the basic idea of the proposed method and can serve as a suitable benchmark result in a channel estimation scenario where the optimal estimator itself is unknown and inaccessible. 代わりに、提案手法の基本概念を刺激し、最適な推定器自体が未知でアクセス不能なチャネル推定シナリオにおいて、適切なベンチマーク結果として機能することができる。 0.67
We therefore call this estimator VAE-genie. したがって、この推定器をVAE-genieと呼ぶ。 0.48
2): The decoder likelihood pθ(x|z) in (6) is again computed with the true x = F h during training, but the encoder is fed with ˜x = F y. 2: (6) のデコーダの確率 pθ(x|z) は、訓練中に真の x = F h で再び計算されるが、エンコーダは yx = F y で供給される。 0.85
This causes the encoder to output µ( ˜x) and σ( ˜x) based on which the KL-term in (7) is evaluated during training. これにより、エンコーダはトレーニング中に (7) における KL 項が評価される μ( sx) と σ( sx) を出力する。 0.74
The adaption also changes the variational distribution from qφ(z|x) to qφ(z| ˜x). 適応はまた、変分分布を qφ(z|x) から qφ(z|x) に変更する。 0.72
Practical deployment of this estimator is now possible as the encoder’s input is ˜x, which allows to use this VAE for estimation of h based on y after training. この推定器の実用的展開は、エンコーダの入力がxであり、トレーニング後のyに基づくhの推定にこのvaeを使用することができるため可能になった。 0.71
The relation z = µ(x) holds only for high SNR. z = μ(x) は高い SNR に対してのみ成立する。 0.79
At low SNR, we therefore expect a performance loss when using only µ(x) in (12). したがって、低SNRでは、 (12) で μ(x) のみを使用する場合、性能損失が期待できる。 0.78
Moreover, it is expected that this estimator delivers worse estimation quality than VAE-genie as is does not have access to the true channel in the evaluation phase. また,この推定器は,評価フェーズにおいて真のチャネルにアクセスできないため,VAEジェニーよりも推定品質が低いことが期待される。 0.73
It is, in contrast, applicable to a real scenario, as the true channels are only used during training. 対照的に、真のチャネルはトレーニング中にのみ使用されるため、実際のシナリオに適用できる。 0.74
We call this estimator VAE-noisy. 私たちはこの推定器をVAEノイズと呼ぶ。 0.42
3): The VAE is fed with ˜x = F y at the encoder and (6) is also evaluated with ˜x during training. 3): vae はエンコーダで sx = f y で供給され、(6) はトレーニング中に sx で評価される。
訳抜け防止モード: 3 ) : VAE はエンコーダの x = F y で供給される また, (6 ) は, 訓練中は x で評価される。
0.80
The KL-term in (7) is again evaluated with the decoder outputs µ( ˜x) and σ( ˜x) during training. KL-term in (7) は、トレーニング中に復号器出力 μ(x) と σ(x) で再度評価される。 0.74
The variational distribution stays the same as for VAE-noisy, but the decoder likelihood changes from pθ(x|z) to pθ( ˜x|z). 変分分布はVAEノイズと同じであるが、復号器は pθ(x|z) から pθ(x|z) に変化する。 0.73
It follows that this model learns a lower bound to p( ˜x), which is different from our actual objective. このモデルは、我々の実際の目的と異なる p(x) への下界を学習する。 0.65
For µh|z in (10), this is not a problem as long as E[n] = 0, which is the case in (1). μh|z in (10) の場合、これは E[n] = 0 である限り問題ではない。
訳抜け防止モード: 10 の μh|z に対して、これは E[n ] = 0 である限り問題ではない。 これは ( 1 ) のケースです。
0.78
The channel covariance can be determined with a simple workaround. チャネル共分散は簡単な回避策で決定できる。 0.70
While the VAE decoder continues to output c(z), the term diag(c(z)) + ς 2I is used instead to compute (6) during training. VAEデコーダはc(z)を出力し続けるが、diag(c(z)) + ς 2I という用語は訓練中に (6) を計算するために使われる。 0.72
In this way the decoder’s learning algorithm is forced to substitute only the desired part, the diagonal channel covariance c(z). このようにしてデコーダの学習アルゴリズムは、所望の部分である対角チャネル共分散c(z)だけを置換せざるを得ない。 0.82
The mean is left as m(z). 平均は m(z) として残される。 0.63
Note that this adaptation is also necessary for the この適応も必要であることに注意してください 0.74
back-transformation in (13). 13)のバックトランスフォーメーション。 0.61
In this way, we enforce that the decoder outputs the channel covariance, by training solely on noisy observations y at the encoder and decoder. このようにして、デコーダは、エンコーダとデコーダのノイズ観測yのみをトレーニングすることにより、チャネル共分散を出力する。 0.71
As for VAEnoisy, the relation z = µ(x) holds only for high SNR and we expect to observe a similar performance loss at low SNR by only using µ(x) in (12). VAEnoisy に関して、z = μ(x) の関係は高い SNR に対してのみ成り立ち、(12) において μ(x) のみを用いることで、低い SNR において同様の性能損失を観測することを期待する。 0.80
It should be noted that no access to the true channels is needed, neither during training nor during evaluation. トレーニング中も評価中も、真のチャネルへのアクセスは不要である点に注意が必要だ。 0.68
We call this more practical and realistic estimator VAE-real. これをより実用的で現実的な推定器vae-realと呼びます。 0.44
Finally, we want to state that evaluating (12) with more samples than exclusively with µ(x), would certainly deliver better estimation results, especially for VAE-noisy and VAEreal at low SNR. 最後に、(12)をμ(x)よりも多くのサンプルで評価することで、特に低SNRでのVAEノイズやVAErealにおいて、より優れた評価結果が得られることを述べたいと思います。 0.65
It is of great interest to know how many samples are necessary for best estimation results. 最適な推定結果に必要なサンプルの数を知ることは非常に興味深い。 0.80
Our future work should therefore also cover such an analysis. ですから、今後の研究もそのような分析をカバーすべきです。 0.46
D. VAE Architecture d. vae アーキテクチャ 0.75
Since the channels are complex-valued, we stack the real and imaginary part of the vector channels to create input vectors of size 2M for the neural networks of the VAE. チャネルは複素値であるため、ベクトルチャネルの実部と虚部を積み重ねて、vaeのニューラルネットワークに対して2mの大きさの入力ベクトルを生成する。 0.77
Please note, the test dataset is previously unseen data for the VAE. なお、テストデータセットは、以前VAEの目に見えないデータである。 0.68
The neural networks used in every VAE have the following architecture: encoder and decoder are built up symmetrically. 各VAEで使用されるニューラルネットワークは以下のアーキテクチャを持つ:エンコーダとデコーダは対称的に構築される。 0.76
The encoder consists of three times a building block of a convolutional (conv.) layer, Batch Normalization (BN) layer, and ReLU activation function. エンコーダは、畳み込み(conv.)層、バッチ正規化(bn)層、およびrelu活性化関数の3倍のビルディングブロックからなる。
訳抜け防止モード: エンコーダは、畳み込み層(凹凸層)の3倍のビルディングブロックで構成されている。 バッチ正規化(BN)層とReLU活性化関数。
0.78
Each conv. それぞれのconv。 0.74
layer uses a kernel of size 7, the input samples are mapped from 1, to 8, to 32, to 128 conv. layerはサイズ7のカーネルを使用し、入力サンプルは1から8、32から128 convにマッピングされる。 0.61
channels, and a stride of 2 is used. チャネルと2のストライドが使用されます。 0.71
The three blocks are followed by two linear layers that map to µ(x) and σ(x). 3つのブロックは、μ(x) と σ(x) に写像する2つの線型層で続く。 0.81
The decoder architecture is analog to the encoder architecture, just flipped symmetrically. デコーダのアーキテクチャはエンコーダのアーキテクチャと類似しており、対称に反転している。 0.58
The architectures were found with a random search over the hyperparameter space by searching for the configuration that yields the highest ELBO value. アーキテクチャは、最も高いelbo値が得られる構成を探索することで、ハイパーパラメータ空間をランダムに探索することで発見された。 0.65
Our neural networks are implemented with the help of PyTorch, and optimized with the Adam optimizer [20], together with the method of free bits [21]. 我々のニューラルネットワークはPyTorchの助けを借りて実装され、Adam Optimizationr[20]とFree bits[21]で最適化されています。 0.74
Note that during training of VAEnoisy and VAE-real we create new noisy observations y in every epoch by sampling the additive noise term in (1). 注記: VAEnoisy と VAE-real の訓練中、加算雑音項をサンプリングし、各エポックにおいて新しい雑音観測y を生成する。
訳抜け防止モード: 注記: VAEnoisy と VAE のトレーニング中、我々はあらゆる時代において新しいノイズ観測 y を生み出した。 加算雑音項を (1 ) にサンプリングする。
0.70
This exhibited an additional performance gain in our experiments. これは我々の実験でさらなる性能向上を示した。 0.76
The VAEs are trained exclusively for a certain SNR value, except VAE-genie where this is not required. VAEは特定のSNR値のためにのみ訓練されるが、VAE-genieは必須ではない。 0.75
We train our VAEs until the ELBO saturates and use the model that yields the highest ELBO value. ELBOが飽和するまでVAEをトレーニングし、最も高いELBO値を得るモデルを使用します。 0.75
E. Related Channel Estimators E. 関連チャネル推定器 0.73
For performance evaluation of our proposed estimators, we compare them with other channel estimators from the literature. 提案した推定器の性能評価には,文献の他のチャネル推定器と比較する。 0.75
In the case of 3GPP channel data, we have access to the covariance matrix Cδ of the conditionally Gaussian channel in (3). 3gppチャネルデータの場合、(3)条件付きガウスチャネルの共分散行列cδにアクセスすることができる。 0.70
This lets us evaluate the conditional mean estimator [5], which is given by これにより、条件付き平均推定器[5]を評価できます。 0.62
ˆhgenie-cov = Cδ(Cδ + Σ) シュゲニー・コヴ=Cδ(Cδ + Σ) 0.70
−1y. (14) Genie-knowledge in the form of Cδ is required for this estimator, which is why we call it genie-cov. −1。 (14) この推定器には Cδ の形をした Genie-knowledge が必要である。 0.49
Note that it cannnot be used for QuaDRiGa based channel data. クアドリガベースのチャネルデータには使えないことに注意してください。 0.68
Another その他 0.63
英語(論文から抽出)日本語訳スコア
Fig. 2. NMSE over SNR for 3GPP channel data with 3 propagation clusters and 32 antennas at the BS. 図2。 nmse over snr 3gppチャネルデータ、3つの伝播クラスタと32個のアンテナをbsで有する。 0.60
Our approaches are displayed as solid curves. 我々のアプローチは固い曲線として表される。 0.63
Fig. 3. NMSE over SNR for 3GPP channel data with 3 propagation clusters and 128 antennas at the BS. 図3。 nmse over snr 3gppチャネルデータ、3つの伝播クラスタと128個のアンテナをbsで有する。 0.59
Our approaches are displayed as solid curves. 我々のアプローチは固い曲線として表される。 0.63
closely related estimator is the evaluation of (14) with a sample covariance matrix. 密接に関連する推定器は (14) のサンプル共分散行列による評価である。 0.77
To this end, a covariance matrix この目的のために、共分散行列 0.70
Nv(cid:88) Nv(cid:88) 0.42
i=1 ˆC = i=1 である。 ※C= 0.45
1 Nv hihi H is computed from the Nv samples hi in the evaluation dataset, and ˆC is used in (14) instead of Cδ. 1Nv ヒヒ へっ 評価データセットで Nv サンプル hi から計算し、Cδ の代わりに (14) で用いられる。 0.49
We refer to this estimator as sample-cov. 我々はこの推定器をサンプルcovと呼ぶ。 0.67
A simple, yet commonly employed estimator, is based on least squares (LS), i.e., ˆhLS = y. 単純だが一般的に用いられる推定器は最小二乗(LS)、すなわち shLS = y に基づいている。 0.78
We also compare our approaches to the GMM-based channel estimator [7], [8]. また,GMMに基づくチャネル推定器 [7], [8] との比較を行った。 0.77
We expect that the GMM estimator is the strongest baseline we compare our VAE channel estimation approaches to as it is proven to be asymptotically optimal for an infinite number of mixture components. GMM推定器は, 無限個の混合成分に対して漸近的に最適であることが証明されたVAEチャネル推定手法と比較して, 最強のベースラインであると期待する。 0.77
The GMM is fitted with 128 components and the covariance matrix of each component is set to be circulant, so that both methods produce circulant covariances. GMMには128個の成分が取り付けられており、各成分の共分散行列は循環行列に設定されているため、どちらの方法も循環共分散を生成する。
訳抜け防止モード: gmmには128個の部品があり そして、各成分の共分散行列を循環式に設定し、両方法とも共分散式を生成する。
0.69
IV. SIMULATION RESULTS IV。 シミュレーション結果 0.49
This section presents the channel estimation results of our numerical simulations based on 3GPP and QuaDRiGa channel data. 本稿では,3GPPとQuaDRiGaのチャネルデータに基づく数値シミュレーションのチャネル推定結果を示す。 0.89
In all our experiments, we calculate the normalized mean squared error (NMSE) as 全ての実験において、正規化平均二乗誤差(NMSE)を計算した。 0.72
NMSE = 1 Nv NMSE = 1Nv 0.41
(cid:107)hi − ˆhi(cid:107)2 (cid:107)hi − shi(cid:107)2 0.41
(cid:107)hi(cid:107) 2 (cid:107)hi(cid:107) 2 0.41
Nv(cid:88) Nv(cid:88) 0.42
i=1 for the evaluation dataset. i=1 である。 評価データセットのために。 0.49
We define the SNR on a per-sample basis such that SNR = (cid:107)h(cid:107)2 /(M ς 2). SNR = (cid:107)h(cid:107)2 /(M ς2) となるようにサンプルごとにSNRを定義する。 0.81
Fig. 2 shows the NMSE over a SNR from -10 to 20 dB for 3GPP data with 3 propagation clusters and 32 antennas at the BS. 図2は、BSに3つの伝搬クラスターと32個のアンテナを持つ3GPPデータに対して、SNRの10から20dBのNMSEを示す。 0.80
Path gains are sampled from a uniform distribution in [0, 1] to sum up to one with a maximum difference of 9 dB. 経路ゲインは[0, 1]の均一分布からサンプリングされ、最大差9dBの1までの和となる。 0.70
Angles of arrival are also sampled from a uniform distribution in [−90°, 90°] with a minimum difference of 1°. 到着角度は[−90°, 90°] における一様分布からもサンプリングされ、最小差は 1° である。 0.80
In this plot and the following, we display our approaches with solid, all others with dashed linestyles. このプロットと以下のプロットでは、我々のアプローチを固く、他の全てを破線スタイルで示します。 0.70
The plot shows that VAE-genie is almost everywhere on par with geniecov. このプロットはvae-genieがgeniecovとほぼ同等であることを示している。 0.43
In the low SNR regime it is even possible to beat genie-cov. 低SNR体制下では、ジェニーコブを倒すこともできる。 0.63
The explanation for this at first glance unintuitive この説明は一見直感的ではありませんが 0.54
Fig. 4. NMSE over SNR for QuaDRiGa channel data UMa mixed NLOS/LOS with 128 antennas at the BS. 図4。 NMSE over SNR for QuaDRiGa channel data UMa mixed NLOS/LOS with 128 antenna at the BS。 0.53
Our approaches are displayed as solid curves. 我々のアプローチは固い曲線として表される。 0.63
behavior has already been mentioned before when VAE-genie was introduced. VAE-genieの登場以前にも言及されている。 0.61
This method uses the information about the actual channel state as side information to achieve an optimal representation of the channel in the latent space of the VAE, and thus has even more information than the conditional mean estimator. この方法は、実チャネル状態に関する情報を側情報として、VAEの潜伏空間におけるチャネルの最適な表現を実現するため、条件付き平均推定器よりもさらに多くの情報を有する。 0.78
The worst performance in Fig 2 shows LS, followed by sample-cov. 図2の最悪のパフォーマンスはLSで、次にサンプルコブである。 0.68
This is expectable as these approaches are not scenario-specific and very simple. これらのアプローチはシナリオ固有のものではなく、非常に単純であるため、これは期待できる。 0.43
VAE-noisy is always better than VAE-real, which is a reasonable behavior since VAEnoisy has access to the noiseless channels, but the performance gap is small. vae-noisyは常にvae-realよりも優れているが、vae-noisyはノイズのないチャネルにアクセスできるため、合理的な振る舞いである。 0.58
At high SNR, VAE-real converges to VAE-noisy as y converges to h. 高い SNR において、VAE-実数は y が h に収束するにつれて VAE-実数に収束する。 0.40
At low SNR, VAE-noisy has a few dB advantage over VAE-real. 低いSNRでは、VAEノイズはVAEノイズよりもいくつかのdBアドバンテージを持つ。 0.50
The GMM is better than the nongenie VAEs at low SNR, and becomes worse from 0 dB on. GMMは低SNRでの非ジェニーVAEよりも優れており、0dB以降は悪化する。 0.76
All displayed methods, except genie-cov, stay clearly behind the performance of VAE-genie. genie-covを除く全ての表示されたメソッドは、VAE-genieのパフォーマンスの後方にある。 0.62
The results for 3GPP data with 3 propagation clusters and 128 antennas at the BS in Fig 3 are in agreement with the findings for 32 antennas at the BS. 図3のBSにおける3つの伝搬クラスターと128個のアンテナによる3GPPデータの結果は、BSにおける32個のアンテナの発見と一致している。 0.75
Simulation settings are identical to the 32 antennas case. シミュレーション設定は、32アンテナのケースと同じです。 0.82
Fig 3 shows that VAE-genie is not able to beat genie-cov in this setting, but almost for every SNR value it is on par with genie-cov. 図3は、VAE-genieがこの設定ではgenie-covを破ることができないことを示しているが、ほとんどすべてのSNR値がgenie-covと同等であることを示している。 0.48
The sample-cov −10−50510152010−210−1100101SNR[dB]NMSEgenie-covsample- covVAE-genieVAE-nois yVAE-realLSGMMcirc−10−50510152010−210−1100101SNR[dB]NMSEgenie-covsample- covVAE-genieVAE-nois yVAE-realLSGMMcirc−10−50510152010−210−1100101SNR[dB]NMSEsample-covVAE-ge nieVAE-noisyVAE-real LSGMMcirc サンプルcov 10−505102010−210−1100101SNR[dB]NMSEgenie-covsample- covVAE-genieVAE-nois yVAE-realLSGMMcirc−10−505102010−210−1100101SNR[dB]NMSEgenie-covsample- covVAE-genieVAE-nois yVAE-realLSGMMcirc−10−505102010−210−1101SNR[dB]NMSEsample-covVAE-ge nieVAE-noisyVAE-real LSGMMcirc 0.45
英語(論文から抽出)日本語訳スコア
and LS approach still perform worst. LSアプローチは依然として最悪です。 0.61
VAE-noisy and VAEreal perform similarly as in Fig 2, but manage to reach the genie curves more closely for higher SNR values. vae-noisy と vaereal は fig 2 と同様に振る舞うが、より高い snr の値に対してより密接にジーニー曲線に到達できる。 0.54
This can be explained with the asymptotic equivalence of the Toeplitz and circulant matrix for higher dimensions [12]. これは高次元[12]のトープリッツ行列と循環行列の漸近同値で説明できる。 0.58
The GMM shows a similar performance as in Fig 2. GMMは、図2と同様のパフォーマンスを示している。 0.79
In consequence of the better performance for higher SNR of VAE-noisy and VAE-real, the performance of the GMM appears worse than in the 32 antenna setting when compared to the mentioned VAE methods. VAEノイズとVAEリアルのより高いSNRの性能向上により、上記VAE手法と比較してGMMの性能は32アンテナ設定よりも悪く見える。 0.66
At to clarify that に 明確にするために 0.64
this point, we want the conditional Gaussianity of the 3GPP channels in (3) is not connected to the objective of the VAE to model the channels conditionally Gaussian as stated in (8). ここで私たちは (3) における 3gpp チャネルの条件付きガウス性は、(8) で述べた条件付きガウス性チャネルをモデル化するために vae の目的と結びついていない。 0.61
More precisely, the latent variable z of the VAE is not trained to approximate δ in (3). より正確には、VOEの潜伏変数 z は δ を (3) で近似するように訓練されない。 0.75
In fact, the VAE channel estimator is not based on a specific channel model since any random variable can be modeled as conditionally Gaussian as reasoned in III-B. 実際、VAEチャネル推定器は、任意の確率変数をIII-Bで推論された条件付きガウスとしてモデル化できるため、特定のチャネルモデルに基づいていない。
訳抜け防止モード: 実際、VAEチャネル推定器は特定のチャネルモデルに基づいていない。 任意の確率変数は条件付きガウス変数としてIII-Bでモデル化できる。
0.80
To highlight this, we investigate the channel estimation quality of our methods based on QuaDRiGa channel data. そこで本稿では,クアドリガチャネルデータに基づいて,提案手法のチャネル推定品質について検討する。 0.82
In contrast to the 3GPP model from before, the channels are not explicitly modeled as conditional Gaussians. 以前の3GPPモデルとは対照的に、チャネルは条件付きガウスとして明示的にモデル化されていない。 0.60
The results for a 3GPP 38.901 urban macrocell (UMa) scenario with mixed NLOS/LOS channels and single-antenna users (80 % of them indoors), cf. 3gpp 38.901 urban macrocell (uma) シナリオでは,nlos/losチャネルと単一アンテナユーザ (80%) が混在し,cf。 0.72
[15], with 128 antennas at the BS are displayed in Fig 4. 図4にBSに128個のアンテナが表示される[15]。 0.71
Note that no true covariance is available in this case, which is why no genie-cov curve is plotted. この場合、真の共分散は得られないので、ジェニーコヴ曲線はプロットされない。 0.52
The behavior of the curves is similar to the behavior observable in the 3GPP plot with 128 antennas. 曲線の挙動は、128アンテナの3gppプロットで観測可能な挙動に似ている。 0.74
VAE-genie always shows the best performance, although VAE-noisy and VAE-real approach it very closely from 0 dB on. VAE-genieは常に最高のパフォーマンスを示しているが、VAE-noisyとVAE-realは0dBから非常に近いアプローチである。 0.61
The GMM is closer to the performance of the VAEs in this case. この場合、GMMはVAEの性能に近い。 0.48
The sample-cov and LS approach are still the worst performing methods with a large gap to the proposed estimators. サンプルコブとLSのアプローチは、提案した推定値に大きなギャップを持つ最悪の手法である。 0.73
This QuaDRiGa experiment highlights that our VAE based channel estimation methods do not only perform well when we have conditionally Gaussian modeled channels, but also for general channel models. この QuaDRiGa 実験は,VAE に基づくチャネル推定手法がガウス型チャネルを持つ場合だけでなく,一般チャネルモデルに対しても有効であることを示す。 0.82
Moreover, in cases where the optimal estimator is not available, the proposed VAE-genie delivers a data-based approach that can serve as a lower bound which might be helpful for evaluating various applications. さらに、最適推定器が利用できない場合、提案されたVAE-genieは、様々なアプリケーションを評価するのに役立つ低いバウンダリとして機能するデータベースのアプローチを提供する。 0.75
V. CONCLUSION V.コンキュレーション 0.76
In this work, we presented a novel approach for data-driven channel estimation. 本研究では,データ駆動型チャネル推定の新しい手法を提案する。 0.72
Its basis forms a VAE that enables us to learn a conditional mean and covariance for every channel that can subsequently be used in the conditional mean channel estimation formula. その基礎は、条件付き平均チャネル推定式で後に使用できる全てのチャネルの条件付き平均と共分散を学習できるVAEを形成する。 0.69
Due to the inherent structure of the VAE it approximates the MMSE estimator under certain assumptions, regardless of the channel distribution. VAEの固有の構造のため、チャネル分布に関係なく、特定の仮定の下でMMSE推定器を近似する。 0.70
Simulation results demonstrated this supposed optimality for different channel models and highlighted the potential of our methods. シミュレーションの結果,異なるチャネルモデルに対する最適性を示し,本手法の可能性を強調した。 0.81
Two of them deserve a special mentioning. その中の2つは特別な言及に値する。 0.56
The VAE-genie may be used as a baseline for channel estimation in a communications scenario, while the VAE-real can be trained solely with noisy observations without access to a dataset of noiseless channels. vae-genieは通信シナリオにおけるチャネル推定のベースラインとして使用できるが、vae-realはノイズのないチャネルのデータセットにアクセスせずにノイズ観測のみでトレーニングすることができる。 0.74
We find that the VAE-real is a particularly interesting method because noiseless channel data are, in reality, unavailable, as VAE-realが特に興味深いのは、ノイズのないチャネルデータが実際には利用できないためである。 0.78
there always remains estimation noise in the data. データには常に推定ノイズが残っています 0.76
Our future work includes a rigorous proof of the conjectured MMSE approximation of the proposed techniques, an investigation of how many samples are necessary in (11), and the extension of our methods to other system models. 今後の研究には,提案手法の予測MMSE近似の厳密な証明,(11)に必要なサンプル数の調査,および他のシステムモデルへの拡張などが含まれる。 0.70
REFERENCES [1] E. Bj¨ornson, L. Sanguinetti, H. Wymeersch, J. Hoydis, and T. L. Marzetta, “Massive MIMO is a Reality—What is Next?: Five Promising Research Directions for Antenna Arrays,” Digit. 参考 [1] E. Bj 'ornson, L. Sanguinetti, H. Wymeersch, J. Hoydis, T. L. Marzetta, “Massive MIMO is a Reality — What is Next?: Five Promising Research Directions for Antenna Arrays”. Digit
訳抜け防止モード: 参考 [1 ]E. Bj 'ornson, L. Sanguinetti, H. Wymeersch, J. Hoydis, T. L. Marzetta, “Massive MIMO is a Reality – What is Next? アンテナアレーの5つのプロミジング研究方向,「ディジット」
0.66
Signal Process. , vol. 信号処理。 ヴォル。 0.49
94, pp. 3–20, 2019. 94, pp. 3–20, 2019。 0.93
[2] H. Ye, G. Y. Li, and B. H. Juang, “Power of Deep Learning for Channel Estimation and Signal Detection in OFDM Systems,” IEEE Wirel. [2] h. ye, g. y. li, b. h. juang, “ofdmシステムにおけるチャネル推定と信号検出のためのディープラーニングのパワー”。 0.73
Commun. Lett. , vol. 共産。 Lett! ヴォル。 0.33
7, no. 1, pp. 114–117, 2018. 7, No. 1, pp. 114-117, 2018。 0.89
[3] M. Soltani, V. Pourahmadi, A. Mirzaei, and H. Sheikhzadeh, “Deep Learning-Based Channel Estimation,” IEEE Commun. ieee communによると、[3] m. soltani, v. pourahmadi, a. mirzaei, h. sheikhzadehは“ディープラーニングに基づくチャネル推定”だ。
訳抜け防止モード: [3]M. Soltani, V. Pourahmadi, A. Mirzaei H. Sheikhzadeh氏は“Deep Learning - Based Channel Estimation”と言う。 IEEEコミュン。
0.77
Lett. , vol. Lett! ヴォル。 0.31
23, no. 4, pp. 2019–2022, 2019. 23, No. 4, pp. 2019–2022, 2019。 0.48
[4] H. He, C. K. Wen, S. Jin, and G. Y. Li, “Deep Learning-Based Channel Estimation for Beamspace mmWave Massive MIMO Systems,” IEEE Wirel. 4] h. he, c. k. wen, s. jin, g. y. li, “ビームスペースmmウェーブの大規模mimoシステムのディープラーニングに基づくチャネル推定”。 0.68
Commun. Lett. , vol. 共産。 Lett! ヴォル。 0.33
7, no. 5, pp. 852–855, 2018. 7, No. 5, pp. 852–855, 2018。 0.91
[5] D. Neumann, T. Wiese, and W. Utschick, “Learning The MMSE Channel Estimator,” IEEE Trans. D. Neumann, T. Wiese, and W. Utschick, “Learning The MMSE Channel Estimator, IEEE Trans。
訳抜け防止モード: 5 ] d. ノイマン、t. ヴィーゼ、w. utschick。 ieee trans. “learning the mmse channel estimator , ” ieee trans。
0.59
Signal Process. , vol. 信号処理。 ヴォル。 0.49
66, no. 11, pp. 2905–2917, 2018. 66, no. 11, pp. 2905-2917, 2018。 0.81
[6] H. He, S. Jin, C. K. Wen, F. Gao, G. Y. Li, and Z. Xu, “ModelDriven Deep Learning for Physical Layer Communications,” IEEE Wirel. H. He, S. Jin, C. K. Wen, F. Gao, G. Y. Li, Z. Xu, “ModelDriven Deep Learning for Physical Layer Communications”, IEEE Wirel。
訳抜け防止モード: [6 ]H. He, S. Jin, C. K. Wen, F. Gao, G. Y. Li, Z. Xu, “物理層通信のためのモデル駆動型ディープラーニング” IEEE Wirel。
0.83
Commun. , vol. 26, no. 5, pp. 77–83, 2019. 共産。 ヴォル。 26, No. 5, pp. 77-83, 2019。 0.37
[7] M. Koller, B. Fesl, N. Turan, and W. Utschick, “An Asymptotically Optimal Approximation of the Conditional Mean Channel Estimator Based on Gaussian Mixture Models,” in 2022 IEEE Int. 7] m. koller, b. fesl, n. turan, w. utschick, "ガウス混合モデルに基づく条件付き平均チャネル推定器の漸近的最適近似" 2022 ieee int。 0.67
Conf. on Acoust. Conf acoust です。 0.41
, Speech and Signal Process. , 2022, pp. 5268–5272. 音声・信号処理。 、2022, pp. 5268-5272。 0.53
[8] ——, “An Asymptotically Optimal Approximation of the Conditional Mean Channel Estimator based on Gaussian Mixture Models,” arXiv preprint arXiv 2112.12499, 2021. asymptoticly optimal approximation of the conditional mean channel estimator based based based on gaussian mixture models” arxiv preprint arxiv 2112.12499, 2021. [8]————— ガウス混合モデルに基づく条件付き平均チャネル推定器の漸近的最適近似。
訳抜け防止モード: 8 ]—————「ガウス混合モデルに基づく条件付き平均チャネル推定器の漸近的最適近似」 arxiv プレプリント arxiv 2112.12499 , 2021 。
0.67
[9] D. P. Kingma and M. Welling, “Auto-Encoding Variational Bayes,” in 9]D.P.キングマとM.ウェリング,「変分ベイの自動エンコード」 0.73
Proc. 2nd Int. Conf. Proc 第2回。 Conf 0.36
Learn. Represent. , 2014. 学ぶ。 代表。 , 2014. 0.56
[10] D. J. Rezende, S. Mohamed, and D. Wierstra, “Stochastic Backpropagation and Approximate Inference in Deep Generative Models,” in Proc. 10] d. j. rezende, s. mohamed, d. wierstra, “stochastic backpropagation and approximation inference in deep generative models” とprocで述べている。 0.83
31st Int. Conf. 第31回。 Conf 0.43
Mach. Learn. , 2014. マッハ 学ぶ。 , 2014. 0.45
[11] A. Caciularu and D. Burshtein, “Blind Channel Equalization using 11] a. caciularu, d. burshtein, “blind channel equalization using” 0.38
Variational Autoencoders,” in IEEE Int. IEEE Intの“変分オートエンコーダ”。 0.68
Conf. Commun. Work. Conf 共産。 仕事。 0.44
, 2018. [12] R. M. Gray, “Toeplitz and Circulant Matrices: A Review,” Found. , 2018. R.M. Gray, “Toeplitz and Circulant Matrices: A Review”[12] 発見。 0.41
and Trends® in Commun. そして コミュニケーターのトレンド®。 0.67
and Inf. Theory, no. 3, pp. 155–239, 2006. とInf。 理論、No. 3, pp. 155-239, 2006。 0.77
[13] 3GPP, “Spatial channel model for Multiple Input Multiple Output (MIMO) simulations (Release 16),” 3rd Generation Partnership Project (3GPP), Tech. 13] 3gpp, “spatial channel model for multiple input multiple output (mimo) simulations (release 16)” 3世代パートナーシッププロジェクト(3gpp)技術。
訳抜け防止モード: [13 ] 3GPP, “Multiple Input Multiple Output(MIMO)シミュレーションのための空間チャネルモデル” (リリース16) 第3世代パートナーシッププロジェクト(3GPP)、Tech。
0.86
Rep. 25.996 V16.0.0, 2020. V16.0.0、2020年。 0.53
[14] S. Jaeckel, L. Raschkowski, K. Borner, and L. Thiele, “QuaDRiGa: A 3D Multi-Cell Channel Model With Time Evolution for Enabling Virtual Field Trials,” IEEE Trans. 14] S. Jaeckel, L. Raschkowski, K. Borner, L. Thiele, “QuaDRiGa: A 3D Multi-Cell Channel Model With Time Evolution for Enabling Virtual Field Trials”, IEEE Trans。 0.45
Antennas Propag. , vol. アンテナプロパグ。 ヴォル。 0.50
62, no. 6, pp. 3242– 3256, 2014. 62, no. 6, pp. 3242–3256, 2014年。 0.92
[15] S. Jaeckel, L. Raschkowski, K. B¨orner, L. Thiele, F. Burkhardt, and E. Eberlein, “QuaDRiGa - Quasi Deterministic Radio Channel Generator, User Manual and Documentation,” Fraunhofer Heinrich Hertz Institute, Tech. 15] s. jaeckel, l. raschkowski, k. b sorner, l. thiele, f. burkhardt, e. eberlein, “quadriga - quasi deterministic radio channel generator, user manual and documentation” fraunhofer heinrich hertz institute, tech. (英語) 0.40
Rep. v2.6.1, 2021. 背番号 v2.6.1, 2021。 0.40
[16] D. M. Blei, A. Kucukelbir, and J. D. McAuliffe, “Variational Inference: A Review for Statisticians,” J. Am. 16] d. m. blei, a. kucukelbir, j. d. mcauliffe, “変量推論: 統計学者のレビュー”、とj. amは言う。 0.72
Stat. Assoc. , vol. 統計。 Assoc ヴォル。 0.42
112, no. 518, pp. 859–877, 2017. 112, no. 518, pp. 859–877, 2017年。 0.88
[17] M. Baur, M. W¨urth, M. Koller, V. [17]M. Baur, M. W surth, M. Koller, V. 0.45
-C. Andrei, and W. Utschick, “CSI Clustering with Variational Autoencoding,” in 2022 IEEE Int. -C。 andrei, w. utschick, and w. utschick, “csi clustering with variational autoencoding” は2022年のieee intで発表された。 0.42
Conf. Acoust. Conf acoust ? 0.27
Speech Signal Process. , 2022, pp. 5278–5282. 音声信号処理。 、2022, pp. 5278-5282。 0.60
[18] S. M. Kay, Fundamentals of Statistical Signal Processing: Estimation [18]S.M.ケイ,統計信号処理の基礎:推定 0.88
Theory. Englewood Cliffs, NJ: Prentice-Hall, Inc., 1993. 理論 englewood Cliffs, NJ: Prentice-Hall, Inc., 1993 0.46
[19] M. Lo`eve, Probability Theory I, 4th ed. [19] M. Lo`eve, Probability Theory I, 4th ed. 0.48
Springer New York, NY, 1977. 1977年、ニューヨーク・スプリングス出身。 0.58
[20] D. P. Kingma and J. L. Ba, “Adam: A Method for Stochastic Optimiza- D. P. Kingma, J. L. Ba, “Adam: A Method for Stochastic Optimiza” 0.40
tion,” in Proc. とprocで書いている。 0.59
3rd Int. Conf. Learn. 第3回。 Conf 学ぶ。 0.49
Represent. , San Diego, 2015. 代表。 2015年、サンディエゴ。 0.56
[21] D. P. Kingma and M. Welling, “An Introduction to Variational Autoencoders,” Found. 21] d. p. kingmaとm. wellingは、“変分オートエンコーダ入門”を発見した。 0.62
Trends® Mach. Trends® Mach 0.38
Learn. , vol. 12, no. 4, pp. 307–392, 2019. 学ぶ。 ヴォル。 12, No. 4, pp. 307–392, 2019。 0.48
             ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。