論文の概要: Deep Learning-based List Sphere Decoding for Faster-than-Nyquist (FTN)
Signaling Detection
- arxiv url: http://arxiv.org/abs/2204.07569v1
- Date: Fri, 15 Apr 2022 17:46:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-18 13:33:15.592251
- Title: Deep Learning-based List Sphere Decoding for Faster-than-Nyquist (FTN)
Signaling Detection
- Title(参考訳): 高速Nyquist(FTN)信号検出のための深層学習に基づくリスト球デコーディング
- Authors: Sina Abbasi and Ebrahim Bedeer
- Abstract要約: Faster-than-Nyquist (FTN) シグナルは非正規伝送技術候補である。
本稿では,深層学習(DL)を用いたFTN信号の検出複雑性の低減について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Faster-than-Nyquist (FTN) signaling is a candidate non-orthonormal
transmission technique to improve the spectral efficiency (SE) of future
communication systems. However, such improvements of the SE are at the cost of
additional computational complexity to remove the intentionally introduced
intersymbol interference. In this paper, we investigate the use of deep
learning (DL) to reduce the detection complexity of FTN signaling. To eliminate
the need of having a noise whitening filter at the receiver, we first present
an equivalent FTN signaling model based on using a set of orthonormal basis
functions and identify its operation region. Second, we propose a DL-based list
sphere decoding (DL-LSD) algorithm that selects and updates the initial radius
of the original LSD to guarantee a pre-defined number $N_{\text{L}}$ of lattice
points inside the hypersphere. This is achieved by training a neural network to
output an approximate initial radius that includes $N_{\text{L}}$ lattice
points. At the testing phase, if the hypersphere has more than $N_{\text{L}}$
lattice points, we keep the $N_{\text{L}}$ closest points to the point
corresponding to the received FTN signal; however, if the hypersphere has less
than $N_{\text{L}}$ points, we increase the approximate initial radius by a
value that depends on the standard deviation of the distribution of the output
radii from the training phase. Then, the approximate value of the
log-likelihood ratio (LLR) is calculated based on the obtained $N_{\text{L}}$
points. Simulation results show that the computational complexity of the
proposed DL-LSD is lower than its counterpart of the original LSD by orders of
magnitude.
- Abstract(参考訳): Faster-than-Nyquist (FTN) シグナリングは将来の通信システムのスペクトル効率(SE)を改善するための非正規伝送技術候補である。
しかし、seのこのような改良は、故意に導入されたシンボリック間干渉を取り除くために追加の計算複雑性を犠牲にしている。
本稿では,深層学習(DL)を用いたFTN信号の検出複雑性の低減について検討する。
受信機にノイズ・ホワイトニング・フィルタを設ける必要性をなくすため,まず,正規直交基底関数の集合を用いて等価なftn信号モデルを示し,その動作領域を同定する。
次に,DL-LSD(DL-LSD)アルゴリズムを提案する。このアルゴリズムは,ハイパースフィア内の格子点の既定値$N_{\text{L}}$を保証するために,元のLSDの初期半径を選択し,更新する。
これはニューラルネットワークをトレーニングして、$N_{\text{L}}$格子点を含む近似初期半径を出力することで達成される。
テストフェーズでは、超球面が$N_{\text{L}}$格子点を持つ場合、受信したFTN信号に対応する点に$N_{\text{L}}$近い点を保持するが、超球面が$N_{\text{L}}$点未満であれば、トレーニングフェーズからの出力半径の標準偏差に依存する値で近似初期半径を増大させる。
そして、得られた$N_{\text{L}}$ポイントに基づいて、ログ類似率(LLR)の近似値を算出する。
シミュレーションの結果,提案するDL-LSDの計算複雑性は,従来のLSDよりも桁違いに低いことがわかった。
関連論文リスト
- Convex Relaxations of ReLU Neural Networks Approximate Global Optima in
Polynomial Time [54.01594785269913]
本稿では, 重み劣化と凸緩和に則った2層ReLUネットワーク間の最適性ギャップについて述べる。
トレーニングデータがランダムである場合、元の問題と緩和の間の相対的な最適性ギャップは、サンプルの勾配によって境界付けられることを示す。
論文 参考訳(メタデータ) (2024-02-06T01:29:35Z) - A Specialized Semismooth Newton Method for Kernel-Based Optimal
Transport [92.96250725599958]
カーネルベース最適輸送(OT)推定器は、サンプルからOT問題に対処するための代替的機能的推定手順を提供する。
SSN法は, 標準正規性条件下でのグローバル収束率$O (1/sqrtk)$, 局所二次収束率を達成できることを示す。
論文 参考訳(メタデータ) (2023-10-21T18:48:45Z) - Low Complexity Classification Approach for Faster-than-Nyquist (FTN)
Signalling Detection [0.0]
より高速なニキスト信号(FTN)はスペクトル効率(SE)を向上させるが、高い計算複雑性を犠牲にすることができる。
近年の物理層問題(PHY)問題におけるMLの成功により,FTN信号の検出複雑性の低減にMLを用いることが検討された。
FTN信号のISI構造を利用して,N_p ll N$-dimensional空間の分類処理を行う低複雑性分類器(LCC)を提案する。
論文 参考訳(メタデータ) (2022-08-22T22:20:16Z) - Bounding the Width of Neural Networks via Coupled Initialization -- A
Worst Case Analysis [121.9821494461427]
2層ReLUネットワークに必要なニューロン数を著しく削減する方法を示す。
また、事前の作業を改善するための新しい下位境界を証明し、ある仮定の下では、最善を尽くすことができることを証明します。
論文 参考訳(メタデータ) (2022-06-26T06:51:31Z) - Towards Sample-Optimal Compressive Phase Retrieval with Sparse and
Generative Priors [59.33977545294148]
O(k log L)$サンプルは振幅に基づく経験損失関数を最小化する任意のベクトルに信号が近いことを保証するのに十分であることを示す。
この結果はスパース位相検索に適応し、基底信号が$s$-sparseおよび$n$-dimensionalである場合、$O(s log n)$サンプルは同様の保証に十分であることを示す。
論文 参考訳(メタデータ) (2021-06-29T12:49:54Z) - Lattice partition recovery with dyadic CART [79.96359947166592]
我々は、$d$次元格子上の加法ガウス雑音によって破損したピースワイド定値信号について検討する。
この形式のデータは、多くのアプリケーションで自然に発生し、統計処理や信号処理の文献において、信号の検出やテスト、ノイズの除去、推定といったタスクが広く研究されている。
本稿では,未知の信号の一貫性領域によって誘導される格子の分割を推定する,分割回復の問題について考察する。
我々は、DCARTベースの手順が、下位分割を$sigma2 k*の順序で一貫して推定することを証明した。
論文 参考訳(メタデータ) (2021-05-27T23:41:01Z) - Sample Complexity and Overparameterization Bounds for Projection-Free
Neural TD Learning [38.730333068555275]
神経td学習の既存の解析は、無限幅解析または(ランダム)コンパクト集合内のネットワークパラメータの制約に依存している。
poly(overlinenu,1/epsilon)$以上の幅の2層reluネットワークを備えたプロジェクションフリーtd学習は、$poly(overlinenu,1/epsilon)$イテレーションまたはサンプルを与えられたエラー$epsilon$で真の値関数に収束する。
論文 参考訳(メタデータ) (2021-03-02T01:05:19Z) - Learning Frequency Domain Approximation for Binary Neural Networks [68.79904499480025]
フーリエ周波数領域における符号関数の勾配を正弦関数の組み合わせを用いて推定し,BNNの訓練を行う。
いくつかのベンチマークデータセットとニューラルネットワークの実験により、この手法で学習したバイナリネットワークが最先端の精度を達成することが示されている。
論文 参考訳(メタデータ) (2021-03-01T08:25:26Z) - Improve the Robustness and Accuracy of Deep Neural Network with
$L_{2,\infty}$ Normalization [0.0]
ディープニューラルネットワーク(DNN)の堅牢性と精度は、$L_2,infty$正規化を導入することで向上した。
L_2,infty$正規化は、DNN関数のポリヘドロングラフの隣接する2つの面の間の大きな二面角をもたらすことが証明されている。
論文 参考訳(メタデータ) (2020-10-10T05:45:45Z) - Regularization Matters: A Nonparametric Perspective on Overparametrized
Neural Network [20.132432350255087]
タンジェント降下(GD)によってトレーニングされた過度にパラメータ化されたニューラルネットワークは、任意のトレーニングデータを確実に過度に適合させることができる。
本稿では、過度にパラメータ化されたニューラルネットワークが、ランダムノイズの存在下での真のターゲット関数をいかに回復するかを考察する。
論文 参考訳(メタデータ) (2020-07-06T01:02:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。