論文の概要: Learn to Communicate with Neural Calibration: Scalability and
Generalization
- arxiv url: http://arxiv.org/abs/2110.00272v1
- Date: Fri, 1 Oct 2021 09:00:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-04 14:23:03.730789
- Title: Learn to Communicate with Neural Calibration: Scalability and
Generalization
- Title(参考訳): ニューラルキャリブレーションでコミュニケーションを学ぶ:スケーラビリティと一般化
- Authors: Yifan Ma, Yifei Shen, Xianghao Yu, Jun Zhang, S.H. Song, Khaled B.
Letaief
- Abstract要約: 本稿では,将来の無線システム設計のためのスケーラブルで一般化可能なニューラルネットワークキャリブレーションフレームワークを提案する。
提案するニューラルキャリブレーションフレームワークは,大規模マルチインプットマルチアウトプット(MIMO)システムにおける資源管理の課題を解決するために応用される。
- 参考スコア(独自算出の注目度): 10.775558382613077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The conventional design of wireless communication systems typically relies on
established mathematical models that capture the characteristics of different
communication modules. Unfortunately, such design cannot be easily and directly
applied to future wireless networks, which will be characterized by large-scale
ultra-dense networks whose design complexity scales exponentially with the
network size. Furthermore, such networks will vary dynamically in a significant
way, which makes it intractable to develop comprehensive analytical models.
Recently, deep learning-based approaches have emerged as potential alternatives
for designing complex and dynamic wireless systems. However, existing
learning-based methods have limited capabilities to scale with the problem size
and to generalize with varying network settings. In this paper, we propose a
scalable and generalizable neural calibration framework for future wireless
system design, where a neural network is adopted to calibrate the input of
conventional model-based algorithms. Specifically, the backbone of a
traditional time-efficient algorithm is integrated with deep neural networks to
achieve a high computational efficiency, while enjoying enhanced performance.
The permutation equivariance property, carried out by the topological structure
of wireless systems, is furthermore utilized to develop a generalizable neural
network architecture. The proposed neural calibration framework is applied to
solve challenging resource management problems in massive multiple-input
multiple-output (MIMO) systems. Simulation results will show that the proposed
neural calibration approach enjoys significantly improved scalability and
generalization compared with the existing learning-based methods.
- Abstract(参考訳): 従来の無線通信システムの設計は、異なる通信モジュールの特性をキャプチャする確立された数学的モデルに依存している。
残念ながら、そのような設計は将来の無線ネットワークでは容易に直接適用できず、設計の複雑さがネットワークサイズと指数関数的にスケールする大規模超高密度ネットワークが特徴である。
さらに、このようなネットワークは動的に大きく変化するため、包括的な分析モデルを開発するのが難しくなる。
近年,複雑でダイナミックな無線システムを設計するための代替手段として,ディープラーニングベースのアプローチが登場している。
しかし、既存の学習ベースの手法は、問題のサイズに応じてスケールし、様々なネットワーク設定で一般化する能力に制限がある。
本稿では,従来のモデルベースアルゴリズムの入力をニューラルネットワークを用いて校正する,将来の無線システム設計のためのスケーラブルで汎用的なニューラルネットワークキャリブレーションフレームワークを提案する。
具体的には、従来の時間効率アルゴリズムのバックボーンをディープニューラルネットワークに統合して高い計算効率を実現し、性能の向上を享受する。
さらに、無線システムのトポロジカル構造によって行われる置換同分散特性を利用して、一般化可能なニューラルネットワークアーキテクチャを開発する。
提案するニューラルキャリブレーションフレームワークは,大規模マルチインプットマルチアウトプット(MIMO)システムにおける資源管理の課題を解決するために応用される。
シミュレーションの結果,提案手法は,既存の学習に基づく手法に比べてスケーラビリティと一般化が著しく向上することを示す。
関連論文リスト
- A method for quantifying the generalization capabilities of generative models for solving Ising models [5.699467840225041]
我々は、ハミング距離正規化器を用いて、VANと組み合わせた様々なネットワークアーキテクチャの一般化能力を定量化する。
フィードフォワードニューラルネットワーク,リカレントニューラルネットワーク,グラフニューラルネットワークなど,VANと組み合わせたネットワークアーキテクチャの数値実験を行う。
本手法は,大規模Isingモデルの解法において,最適なネットワークアーキテクチャを探索するニューラルネットワーク探索の分野を支援する上で,非常に重要である。
論文 参考訳(メタデータ) (2024-05-06T12:58:48Z) - Message Passing Variational Autoregressive Network for Solving Intractable Ising Models [6.261096199903392]
自己回帰型ニューラルネットワーク、畳み込み型ニューラルネットワーク、リカレントニューラルネットワーク、グラフニューラルネットワークなど、多くのディープニューラルネットワークがIsingモデルの解決に使用されている。
本稿では、スピン変数間の相互作用を効果的に活用できるメッセージパッシング機構を備えた変分自己回帰アーキテクチャを提案する。
新しいネットワークは、アニーリングフレームワークの下で訓練され、いくつかの原型スピンハミルトニアンの解法、特に低温での大きなスピン系において、既存の方法よりも優れている。
論文 参考訳(メタデータ) (2024-04-09T11:27:07Z) - Systematic construction of continuous-time neural networks for linear dynamical systems [0.0]
本稿では,動的システムのサブクラスをモデル化するためのニューラルネットワーク構築の体系的アプローチについて論じる。
我々は、各ニューロンの出力が1次または2次常微分方程式(ODE)の解として連続的に進化する連続時間ニューラルネットワークの変種を用いる。
データからネットワークアーキテクチャとパラメータを導出する代わりに、所定のLTIシステムから直接スパースアーキテクチャとネットワークパラメータを計算するための勾配のないアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-24T16:16:41Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Leveraging Digital Cousins for Ensemble Q-Learning in Large-Scale
Wireless Networks [21.30645601474163]
無線ネットワークを最適化する新しいアンサンブルQ-ラーニングアルゴリズムを提案する。
提案アルゴリズムは、最先端の強化学習アルゴリズムよりも実行時複雑性を最大40%低減し、平均誤差を最大50%低減することができる。
論文 参考訳(メタデータ) (2024-02-12T19:39:07Z) - Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - Gaussian Process Surrogate Models for Neural Networks [6.8304779077042515]
科学と工学において、モデリング(英: modeling)とは、内部プロセスが不透明な複雑なシステムを理解するために用いられる方法論である。
本稿では,ガウス過程を用いたニューラルネットワークの代理モデルのクラスを構築する。
提案手法は,ニューラルネットワークのスペクトルバイアスに関連する既存の現象を捕捉し,サロゲートモデルを用いて現実的な問題を解決することを実証する。
論文 参考訳(メタデータ) (2022-08-11T20:17:02Z) - Learning Autonomy in Management of Wireless Random Networks [102.02142856863563]
本稿では,任意の数のランダム接続ノードを持つ無線ネットワークにおいて,分散最適化タスクに取り組む機械学習戦略を提案する。
我々は,ネットワークトポロジとは無関係に,前方および後方に計算を行う分散メッセージパスニューラルネットワーク(DMPNN)と呼ばれる,柔軟な深層ニューラルネットワーク形式を開発した。
論文 参考訳(メタデータ) (2021-06-15T09:03:28Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。