論文の概要: Hybrid-Layers Neural Network Architectures for Modeling the
Self-Interference in Full-Duplex Systems
- arxiv url: http://arxiv.org/abs/2110.09997v1
- Date: Mon, 18 Oct 2021 14:18:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-21 05:08:20.125866
- Title: Hybrid-Layers Neural Network Architectures for Modeling the
Self-Interference in Full-Duplex Systems
- Title(参考訳): 全二重系における自己干渉モデリングのためのハイブリッド層ニューラルネットワークアーキテクチャ
- Authors: Mohamed Elsayed, Ahmad A. Aziz El-Banna, Octavia A. Dobre, Wanyi Shiu,
and Peiwei Wang
- Abstract要約: フル分析(FD)システムは、周波数リソースを介して情報を同時送信する。
本稿では、低複雑性でローカライズされた2つの新しいハイブリッド層ニューラルネットワーク(NN)アーキテクチャを提案する。
提案されたNNは、隠れた層(例えば密度の高い層)を組み合わせて、最先端のNNベースのキャンセラよりも計算複雑性の低いSIをモデル化する。
- 参考スコア(独自算出の注目度): 23.55330151898652
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Full-duplex (FD) systems have been introduced to provide high data rates for
beyond fifth-generation wireless networks through simultaneous transmission of
information over the same frequency resources. However, the operation of FD
systems is practically limited by the self-interference (SI), and efficient SI
cancelers are sought to make the FD systems realizable. Typically,
polynomial-based cancelers are employed to mitigate the SI; nevertheless, they
suffer from high complexity. This article proposes two novel hybrid-layers
neural network (NN) architectures to cancel the SI with low complexity. The
first architecture is referred to as hybrid-convolutional recurrent NN (HCRNN),
whereas the second is termed as hybrid-convolutional recurrent dense NN
(HCRDNN). In contrast to the state-of-the-art NNs that employ dense or
recurrent layers for SI modeling, the proposed NNs exploit, in a novel manner,
a combination of different hidden layers (e.g., convolutional, recurrent,
and/or dense) in order to model the SI with lower computational complexity than
the polynomial and the state-of-the-art NN-based cancelers. The key idea behind
using hybrid layers is to build an NN model, which makes use of the
characteristics of the different layers employed in its architecture. More
specifically, in the HCRNN, a convolutional layer is employed to extract the
input data features using a reduced network scale. Moreover, a recurrent layer
is then applied to assist in learning the temporal behavior of the input signal
from the localized feature map of the convolutional layer. In the HCRDNN, an
additional dense layer is exploited to add another degree of freedom for
adapting the NN settings in order to achieve the best compromise between the
cancellation performance and computational complexity. Complexity analysis and
numerical simulations are provided to prove the superiority of the proposed
architectures.
- Abstract(参考訳): FD(Full-duplex)システムは、同一の周波数リソース上で情報を同時送信することで、第5世代の無線ネットワークに高いデータレートを提供するために導入された。
しかし、FDシステムの動作は自己干渉(SI)によって実質的に制限され、効率的なSIキャンセラがFDシステムの実現を可能にする。
通常、多項式ベースのキャンセル器はSIを緩和するために使用されるが、それでも高い複雑さに悩まされている。
本稿では,低複雑性でSIをキャンセルする2つの新しいハイブリッド層ニューラルネットワーク(NN)アーキテクチャを提案する。
第1のアーキテクチャはHCRNN(Hybrid-convolutional recurrent NN)、第2のアーキテクチャはHCRDNN(Hybrid-convolutional recurrent dense NN)と呼ばれる。
SIモデリングに高密度または再帰的な層を用いる最先端のNNとは対照的に、提案されたNNは、新しい方法で異なる隠れた層(例えば、畳み込み、再帰および/または高密度)を組み合わせて、SIを多項式や最先端のNNベースのキャンセラよりも低い計算複雑性でモデル化する。
ハイブリッドレイヤを使用することの背景にある重要なアイデアは、アーキテクチャで採用されるさまざまなレイヤの特性を活用するNNモデルを構築することだ。
より具体的には、HCRNNでは、ネットワークスケールを縮小して入力データの特徴を抽出するために畳み込み層を用いる。
さらに、畳み込み層の局所化特徴写像から入力信号の時間的挙動の学習を支援するために、繰り返し層を適用する。
HCRDNNでは、キャンセル性能と計算複雑性の最良の妥協を達成するために、追加の高密度層を利用して、NN設定を適用するための別の自由度を追加する。
複雑度解析と数値シミュレーションを行い,提案アーキテクチャの優位性を証明する。
関連論文リスト
- Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングでは、スパイクニューラルネットワーク(SNN)が推論タスクを実行し、シーケンシャルデータを含むワークロードの大幅な効率向上を提供する。
ハードウェアとソフトウェアの最近の進歩は、スパイクニューロン間で交換された各スパイクに数ビットのペイロードを埋め込むことにより、推論精度をさらに高めることを示した。
本稿では,マルチレベルSNNを用いた無線ニューロモルフィック分割計算アーキテクチャについて検討する。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Residual resampling-based physics-informed neural network for neutron diffusion equations [7.105073499157097]
中性子拡散方程式は原子炉の解析において重要な役割を果たす。
従来のPINNアプローチでは、完全に接続されたネットワーク(FCN)アーキテクチャを利用することが多い。
R2-PINNは、現在の方法に固有の制限を効果的に克服し、中性子拡散方程式のより正確で堅牢な解を提供する。
論文 参考訳(メタデータ) (2024-06-23T13:49:31Z) - Systematic construction of continuous-time neural networks for linear dynamical systems [0.0]
本稿では,動的システムのサブクラスをモデル化するためのニューラルネットワーク構築の体系的アプローチについて論じる。
我々は、各ニューロンの出力が1次または2次常微分方程式(ODE)の解として連続的に進化する連続時間ニューラルネットワークの変種を用いる。
データからネットワークアーキテクチャとパラメータを導出する代わりに、所定のLTIシステムから直接スパースアーキテクチャとネットワークパラメータを計算するための勾配のないアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-24T16:16:41Z) - A novel Deep Neural Network architecture for non-linear system
identification [78.69776924618505]
非線形システム識別のための新しいDeep Neural Network (DNN)アーキテクチャを提案する。
メモリシステムにインスパイアされたインダクティブバイアス(アーキテクチャ)と正規化(損失関数)を導入する。
このアーキテクチャは、利用可能なデータのみに基づいて、自動的な複雑性の選択を可能にする。
論文 参考訳(メタデータ) (2021-06-06T10:06:07Z) - Skip-Connected Self-Recurrent Spiking Neural Networks with Joint
Intrinsic Parameter and Synaptic Weight Training [14.992756670960008]
我々はSkip-Connected Self-Recurrent SNNs (ScSr-SNNs) と呼ばれる新しいタイプのRSNNを提案する。
ScSr-SNNは、最先端BP法で訓練された他のタイプのRSNNと比較して、パフォーマンスを最大2.55%向上させることができる。
論文 参考訳(メタデータ) (2020-10-23T22:27:13Z) - Coupled Oscillatory Recurrent Neural Network (coRNN): An accurate and
(gradient) stable architecture for learning long time dependencies [15.2292571922932]
本稿では,リカレントニューラルネットワークのための新しいアーキテクチャを提案する。
提案するRNNは, 2次常微分方程式系の時間分解に基づく。
実験の結果,提案したRNNは,様々なベンチマークによる最先端技術に匹敵する性能を示した。
論文 参考訳(メタデータ) (2020-10-02T12:35:04Z) - Low Complexity Neural Network Structures for Self-Interference
Cancellation in Full-Duplex Radio [21.402093766480746]
計算複雑性を低減したSI信号のモデリングには,2つの新しい低複雑性ニューラルネットワーク(NN)が提案されている。
2つの構造はラダーワイドグリッド構造(LWGS)と移動ウィンドウグリッド構造(MWGS)と呼ばれる。
シミュレーションの結果,LWGSとMWGSベースのキャンセル器はNNベースのキャンセル器と同じキャンセル性能が得られることがわかった。
論文 参考訳(メタデータ) (2020-09-23T20:10:08Z) - Neural Architecture Search For LF-MMI Trained Time Delay Neural Networks [61.76338096980383]
TDNN(State-of-the-the-art Factored Time delay Neural Network)の2種類のハイパーパラメータを自動的に学習するために、さまざまなニューラルネットワークサーチ(NAS)技術が使用されている。
DARTSメソッドはアーキテクチャ選択とLF-MMI(格子のないMMI)TDNNトレーニングを統合する。
300時間のSwitchboardコーパスで行われた実験では、自動構成システムはベースラインLF-MMI TDNNシステムより一貫して優れていることが示唆された。
論文 参考訳(メタデータ) (2020-07-17T08:32:11Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Iterative Network for Image Super-Resolution [69.07361550998318]
単一画像超解像(SISR)は、最近の畳み込みニューラルネットワーク(CNN)の発展により、大幅に活性化されている。
本稿では、従来のSISRアルゴリズムに関する新たな知見を提供し、反復最適化に依存するアプローチを提案する。
反復最適化の上に,新しい反復型超解像ネットワーク (ISRN) を提案する。
論文 参考訳(メタデータ) (2020-05-20T11:11:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。