論文の概要: Learn to Communicate with Neural Calibration: Scalability and
Generalization
- arxiv url: http://arxiv.org/abs/2110.00272v1
- Date: Fri, 1 Oct 2021 09:00:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-04 14:23:03.730789
- Title: Learn to Communicate with Neural Calibration: Scalability and
Generalization
- Title(参考訳): ニューラルキャリブレーションでコミュニケーションを学ぶ:スケーラビリティと一般化
- Authors: Yifan Ma, Yifei Shen, Xianghao Yu, Jun Zhang, S.H. Song, Khaled B.
Letaief
- Abstract要約: 本稿では,将来の無線システム設計のためのスケーラブルで一般化可能なニューラルネットワークキャリブレーションフレームワークを提案する。
提案するニューラルキャリブレーションフレームワークは,大規模マルチインプットマルチアウトプット(MIMO)システムにおける資源管理の課題を解決するために応用される。
- 参考スコア(独自算出の注目度): 10.775558382613077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The conventional design of wireless communication systems typically relies on
established mathematical models that capture the characteristics of different
communication modules. Unfortunately, such design cannot be easily and directly
applied to future wireless networks, which will be characterized by large-scale
ultra-dense networks whose design complexity scales exponentially with the
network size. Furthermore, such networks will vary dynamically in a significant
way, which makes it intractable to develop comprehensive analytical models.
Recently, deep learning-based approaches have emerged as potential alternatives
for designing complex and dynamic wireless systems. However, existing
learning-based methods have limited capabilities to scale with the problem size
and to generalize with varying network settings. In this paper, we propose a
scalable and generalizable neural calibration framework for future wireless
system design, where a neural network is adopted to calibrate the input of
conventional model-based algorithms. Specifically, the backbone of a
traditional time-efficient algorithm is integrated with deep neural networks to
achieve a high computational efficiency, while enjoying enhanced performance.
The permutation equivariance property, carried out by the topological structure
of wireless systems, is furthermore utilized to develop a generalizable neural
network architecture. The proposed neural calibration framework is applied to
solve challenging resource management problems in massive multiple-input
multiple-output (MIMO) systems. Simulation results will show that the proposed
neural calibration approach enjoys significantly improved scalability and
generalization compared with the existing learning-based methods.
- Abstract(参考訳): 従来の無線通信システムの設計は、異なる通信モジュールの特性をキャプチャする確立された数学的モデルに依存している。
残念ながら、そのような設計は将来の無線ネットワークでは容易に直接適用できず、設計の複雑さがネットワークサイズと指数関数的にスケールする大規模超高密度ネットワークが特徴である。
さらに、このようなネットワークは動的に大きく変化するため、包括的な分析モデルを開発するのが難しくなる。
近年,複雑でダイナミックな無線システムを設計するための代替手段として,ディープラーニングベースのアプローチが登場している。
しかし、既存の学習ベースの手法は、問題のサイズに応じてスケールし、様々なネットワーク設定で一般化する能力に制限がある。
本稿では,従来のモデルベースアルゴリズムの入力をニューラルネットワークを用いて校正する,将来の無線システム設計のためのスケーラブルで汎用的なニューラルネットワークキャリブレーションフレームワークを提案する。
具体的には、従来の時間効率アルゴリズムのバックボーンをディープニューラルネットワークに統合して高い計算効率を実現し、性能の向上を享受する。
さらに、無線システムのトポロジカル構造によって行われる置換同分散特性を利用して、一般化可能なニューラルネットワークアーキテクチャを開発する。
提案するニューラルキャリブレーションフレームワークは,大規模マルチインプットマルチアウトプット(MIMO)システムにおける資源管理の課題を解決するために応用される。
シミュレーションの結果,提案手法は,既存の学習に基づく手法に比べてスケーラビリティと一般化が著しく向上することを示す。
関連論文リスト
- Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Leveraging Digital Cousins for Ensemble Q-Learning in Large-Scale
Wireless Networks [21.30645601474163]
無線ネットワークを最適化する新しいアンサンブルQ-ラーニングアルゴリズムを提案する。
提案アルゴリズムは、最先端の強化学習アルゴリズムよりも実行時複雑性を最大40%低減し、平均誤差を最大50%低減することができる。
論文 参考訳(メタデータ) (2024-02-12T19:39:07Z) - Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - On the effectiveness of neural priors in modeling dynamical systems [28.69155113611877]
ニューラルネットワークがそのようなシステムを学ぶ際に提供するアーキテクチャの規則化について論じる。
動的システムをモデル化する際の複数の問題を解決するために,レイヤ数が少ない単純な座標ネットワークが利用できることを示す。
論文 参考訳(メタデータ) (2023-03-10T06:21:24Z) - Learning Cooperative Beamforming with Edge-Update Empowered Graph Neural
Networks [29.23937571816269]
グラフエッジ上での協調ビームフォーミングを学習するためのエッジグラフニューラルネットワーク(Edge-GNN)を提案する。
提案したEdge-GNNは、最先端の手法よりも計算時間をはるかに短くして、より高い和率を達成する。
論文 参考訳(メタデータ) (2022-11-23T02:05:06Z) - Gaussian Process Surrogate Models for Neural Networks [6.8304779077042515]
科学と工学において、モデリング(英: modeling)とは、内部プロセスが不透明な複雑なシステムを理解するために用いられる方法論である。
本稿では,ガウス過程を用いたニューラルネットワークの代理モデルのクラスを構築する。
提案手法は,ニューラルネットワークのスペクトルバイアスに関連する既存の現象を捕捉し,サロゲートモデルを用いて現実的な問題を解決することを実証する。
論文 参考訳(メタデータ) (2022-08-11T20:17:02Z) - Learning Autonomy in Management of Wireless Random Networks [102.02142856863563]
本稿では,任意の数のランダム接続ノードを持つ無線ネットワークにおいて,分散最適化タスクに取り組む機械学習戦略を提案する。
我々は,ネットワークトポロジとは無関係に,前方および後方に計算を行う分散メッセージパスニューラルネットワーク(DMPNN)と呼ばれる,柔軟な深層ニューラルネットワーク形式を開発した。
論文 参考訳(メタデータ) (2021-06-15T09:03:28Z) - An error-propagation spiking neural network compatible with neuromorphic
processors [2.432141667343098]
本稿では,局所的な重み更新機構を用いたバックプロパゲーションを近似したスパイクに基づく学習手法を提案する。
本稿では,重み更新機構による誤り信号のバックプロパゲートを可能にするネットワークアーキテクチャを提案する。
この研究は、超低消費電力混合信号ニューロモルフィック処理系の設計に向けた第一歩である。
論文 参考訳(メタデータ) (2021-04-12T07:21:08Z) - Model-Based Machine Learning for Communications [110.47840878388453]
モデルベースのアルゴリズムと機械学習をハイレベルな視点で組み合わせるための既存の戦略を見直します。
通信受信機の基本的なタスクの一つであるシンボル検出に注目する。
論文 参考訳(メタデータ) (2021-01-12T19:55:34Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。