論文の概要: Achieving Robust Generalization for Wireless Channel Estimation Neural
Networks by Designed Training Data
- arxiv url: http://arxiv.org/abs/2302.02302v1
- Date: Sun, 5 Feb 2023 04:53:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 19:03:20.455071
- Title: Achieving Robust Generalization for Wireless Channel Estimation Neural
Networks by Designed Training Data
- Title(参考訳): 設計学習データを用いた無線チャネル推定ニューラルネットワークのロバスト一般化
- Authors: Dianxin Luan, John Thompson
- Abstract要約: 本稿では,トレーニングされたニューラルネットワークを未知のチャネルに堅牢な一般化を支援するためのトレーニングデータの設計手法を提案する。
これはメモリと処理集約的なソリューションであるため、これまで見つからなかったチャネルに対するオンライントレーニングの要件を回避する。
シミュレーションの結果、トレーニングされたニューラルネットワークは、目に見えないチャネルでほぼ同じ性能を維持していることがわかった。
- 参考スコア(独自算出の注目度): 1.0499453838486013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a method to design the training data that can
support robust generalization of trained neural networks to unseen channels.
The proposed design that improves the generalization is described and analysed.
It avoids the requirement of online training for previously unseen channels, as
this is a memory and processing intensive solution, especially for battery
powered mobile terminals. To prove the validity of the proposed method, we use
the channels modelled by different standards and fading modelling for
simulation. We also use an attention-based structure and a convolutional neural
network to evaluate the generalization results achieved. Simulation results
show that the trained neural networks maintain almost identical performance on
the unseen channels.
- Abstract(参考訳): 本稿では,訓練されたニューラルネットワークの未検出チャネルへのロバストな一般化を支援するトレーニングデータの設計手法を提案する。
一般化を改良した提案設計を記述・分析した。
これは、特にバッテリー駆動のモバイル端末において、メモリと処理集約的なソリューションであるため、これまで見つからなかったチャネルに対するオンライントレーニングの要求を回避する。
提案手法の妥当性を証明するために,異なる基準でモデル化されたチャネルとフェーディングモデルを用いてシミュレーションを行う。
また,注意に基づく構造と畳み込みニューラルネットワークを用いて一般化結果を評価する。
シミュレーションの結果、トレーニングされたニューラルネットワークは、目に見えないチャネルでほぼ同じ性能を維持していることがわかった。
関連論文リスト
- Epistemic Modeling Uncertainty of Rapid Neural Network Ensembles for
Adaptive Learning [0.0]
新しいタイプのニューラルネットワークは、高速ニューラルネットワークパラダイムを用いて提示される。
提案したエミュレータを組み込んだニューラルネットワークは,予測精度を損なうことなく,ほぼ瞬時に学習できることが判明した。
論文 参考訳(メタデータ) (2023-09-12T22:34:34Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - Channelformer: Attention based Neural Solution for Wireless Channel
Estimation and Effective Online Training [1.0499453838486013]
本稿では,改良されたチャネル推定を実現するために,エンコーダ・デコーダニューラルアーキテクチャ(Channelformer)を提案する。
我々は,復号器として,エンコーダと残差畳み込みニューラルアーキテクチャに多面的注意を払っている。
また,現代通信システムにおける第5世代(5G)新しい無線(NR)構成に基づく効果的なオンライントレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-02-08T23:18:23Z) - Simple initialization and parametrization of sinusoidal networks via
their kernel bandwidth [92.25666446274188]
従来の活性化機能を持つネットワークの代替として、活性化を伴う正弦波ニューラルネットワークが提案されている。
まず,このような正弦波ニューラルネットワークの簡易版を提案する。
次に、ニューラルタンジェントカーネルの観点からこれらのネットワークの挙動を分析し、そのカーネルが調整可能な帯域幅を持つ低域フィルタを近似することを実証する。
論文 参考訳(メタデータ) (2022-11-26T07:41:48Z) - Interference Cancellation GAN Framework for Dynamic Channels [74.22393885274728]
チャネルのあらゆる変更に適応できるオンライントレーニングフレームワークを導入します。
我々のフレームワークは、非常にダイナミックなチャネル上での最近のニューラルネットワークモデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-08-17T02:01:18Z) - Embedding Graph Convolutional Networks in Recurrent Neural Networks for
Predictive Monitoring [0.0]
本稿では,グラフ畳み込みネットワークとリカレントニューラルネットワークに基づくアプローチを提案する。
実生活のイベントログを実験的に評価したところ、我々のアプローチはより一貫性があり、最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-12-17T17:30:30Z) - Subquadratic Overparameterization for Shallow Neural Networks [60.721751363271146]
私たちは、標準的なニューラルトレーニング戦略を採用することができる分析フレームワークを提供しています。
我々は、Desiderata viaak-Lojasiewicz, smoothness, and standard assumptionsを達成する。
論文 参考訳(メタデータ) (2021-11-02T20:24:01Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Learning to Prune in Training via Dynamic Channel Propagation [7.974413827589133]
我々は「動的チャネル伝搬」と呼ばれる新しいネットワーク学習機構を提案する。
各畳み込み層内の特定のチャネル群を抽出し、トレーニング時間内に前方伝播に参加する。
トレーニングが終了すると、ユーティリティ値の高いチャネルは保持され、ユーティリティ値の低いチャネルは破棄される。
論文 参考訳(メタデータ) (2020-07-03T04:02:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。