論文の概要: Model-Driven Beamforming Neural Networks
- arxiv url: http://arxiv.org/abs/2001.05277v1
- Date: Wed, 15 Jan 2020 12:50:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 07:27:22.160001
- Title: Model-Driven Beamforming Neural Networks
- Title(参考訳): モデル駆動ビームフォーミングニューラルネットワーク
- Authors: Wenchao Xia, Gan Zheng, Kai-Kit Wong, and Hongbo Zhu
- Abstract要約: 本稿では、一般データおよびモデル駆動ビームフォーミングニューラルネットワーク(BNN)を紹介する。
様々な学習戦略を示し、DLベースのBNNの複雑さの低減についても論じている。
また、BNNの汎用性を向上させるため、トレーニングセットの強化や伝達学習などの強化手法も提供する。
- 参考スコア(独自算出の注目度): 47.754731555563836
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Beamforming is evidently a core technology in recent generations of mobile
communication networks. Nevertheless, an iterative process is typically
required to optimize the parameters, making it ill-placed for real-time
implementation due to high complexity and computational delay. Heuristic
solutions such as zero-forcing (ZF) are simpler but at the expense of
performance loss. Alternatively, deep learning (DL) is well understood to be a
generalizing technique that can deliver promising results for a wide range of
applications at much lower complexity if it is sufficiently trained. As a
consequence, DL may present itself as an attractive solution to beamforming. To
exploit DL, this article introduces general data- and model-driven beamforming
neural networks (BNNs), presents various possible learning strategies, and also
discusses complexity reduction for the DL-based BNNs. We also offer enhancement
methods such as training-set augmentation and transfer learning in order to
improve the generality of BNNs, accompanied by computer simulation results and
testbed results showing the performance of such BNN solutions.
- Abstract(参考訳): ビームフォーミングは、近年のモバイル通信ネットワークの中核技術であることは明らかである。
それでも、パラメータの最適化には反復的なプロセスが通常必要であり、複雑さと計算遅延のため、リアルタイム実装では不適当である。
ゼロ強制(ZF)のようなヒューリスティックなソリューションは単純だが、性能損失を犠牲にしている。
あるいは、ディープラーニング(dl)は、十分に訓練された場合、より低い複雑さで、幅広いアプリケーションに対して有望な結果を提供できる一般化技術であるとよく理解されている。
その結果、dlは自身をビームフォーミングの魅力的な解決策として提示することができる。
本稿では、DLを活用するために、汎用データおよびモデル駆動ビームフォーミングニューラルネットワーク(BNN)を導入し、様々な学習戦略を提示し、DLベースのBNNの複雑性低減についても論じる。
また,BNNの汎用性を向上させるため,BNNソリューションの性能を示すコンピュータシミュレーション結果やテストベッド結果とともに,トレーニングセットの強化や伝達学習などの拡張手法も提供する。
関連論文リスト
- A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - Decouple Graph Neural Networks: Train Multiple Simple GNNs Simultaneously Instead of One [60.5818387068983]
グラフニューラルネットワーク(GNN)は、深刻な非効率性に悩まされている。
我々は,より効率的なトレーニングを行うために,多層GNNを複数の単純なモジュールとして分離することを提案する。
提案するフレームワークは,合理的な性能で高い効率性を示す。
論文 参考訳(メタデータ) (2023-04-20T07:21:32Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - TxSim:Modeling Training of Deep Neural Networks on Resistive Crossbar
Systems [3.1887081453726136]
クロスバーベースの計算は、様々なデバイスと回路レベルの非理想性のために大きな課題に直面している。
我々は、クロスバーベースハードウェア上でDNNトレーニングを機能的に評価する高速でカスタマイズ可能なモデリングフレームワークであるTxSimを提案する。
論文 参考訳(メタデータ) (2020-02-25T19:29:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。