論文の概要: Rapid and Power-Aware Learned Optimization for Modular Receive Beamforming
- arxiv url: http://arxiv.org/abs/2408.00439v1
- Date: Thu, 1 Aug 2024 10:19:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-04 20:56:07.911031
- Title: Rapid and Power-Aware Learned Optimization for Modular Receive Beamforming
- Title(参考訳): モジュール受信ビームフォーミングの高速化とパワーアウェア学習
- Authors: Ohad Levy, Nir Shlezinger,
- Abstract要約: マルチインプット・マルチアウトプット(MIMO)システムは無線通信技術において重要な役割を果たす。
モジュールハイブリッドシステムにおけるビームフォーミングのための電力指向最適化アルゴリズムを提案する。
低分解能位相シフトによる計算の高速化を通じて、学習者によって効率の良いビームフォーミングがいかに促進されるかを示す。
- 参考スコア(独自算出の注目度): 27.09017677987757
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiple-input multiple-output (MIMO) systems play a key role in wireless communication technologies. A widely considered approach to realize scalable MIMO systems involves architectures comprised of multiple separate modules, each with its own beamforming capability. Such models accommodate cell-free massive MIMO and partially connected hybrid MIMO architectures. A core issue with the implementation of modular MIMO arises from the need to rapidly set the beampatterns of the modules, while maintaining their power efficiency. This leads to challenging constrained optimization that should be repeatedly solved on each coherence duration. In this work, we propose a power-oriented optimization algorithm for beamforming in uplink modular hybrid MIMO systems, which learns from data to operate rapidly. We derive our learned optimizer by tackling the rate maximization objective using projected gradient ascent steps with momentum. We then leverage data to tune the hyperparameters of the optimizer, allowing it to operate reliably in a fixed and small number of iterations while completely preserving its interpretable operation. We show how power efficient beamforming can be encouraged by the learned optimizer, via boosting architectures with low-resolution phase shifts and with deactivated analog components. Numerical results show that our learn-to-optimize method notably reduces the number of iterations and computation latency required to reliably tune modular MIMO receivers, and that it allows obtaining desirable balances between power efficient designs and throughput.
- Abstract(参考訳): マルチインプット・マルチアウトプット(MIMO)システムは無線通信技術において重要な役割を果たす。
スケーラブルなMIMOシステムを実現するために広く検討されているアプローチは、複数のモジュールから構成されるアーキテクチャで、それぞれ独自のビームフォーミング機能を備えている。
このようなモデルは、セルフリーの大規模なMIMOと部分的に接続されたハイブリッドMIMOアーキテクチャに対応している。
モジュールMIMOの実装における中核的な問題は、モジュールのビームパターンを迅速に設定し、その電力効率を維持する必要があることである。
これにより、コヒーレンス期間毎に繰り返し解決すべき制約付き最適化が困難になる。
そこで本研究では,データから学習して高速に動作するアップリンクモジュール型MIMOシステムにおいて,ビームフォーミングのための電力指向最適化アルゴリズムを提案する。
速度最大化の目標を運動量で投影した勾配上昇ステップを用いて,学習した最適化器を導出する。
次に、データを活用してオプティマイザのハイパーパラメータを調整し、その解釈可能な操作を完全に保ちながら、固定された少数のイテレーションで確実に動作できるようにします。
我々は,低分解能位相シフトと非活性化アナログ成分を用いたアーキテクチャの強化を通じて,学習用オプティマイザによって効率の良いビームフォーミングがいかに促進されるかを示す。
数値計算により,本手法は,モジュール型MIMO受信機を確実にチューニングするのに要するイテレーション数や計算遅延を著しく低減し,効率の良い設計とスループットのバランスを得られることを示す。
関連論文リスト
- Read-ME: Refactorizing LLMs as Router-Decoupled Mixture of Experts with System Co-Design [59.00758127310582]
本稿では、事前学習された高密度LCMをより小さなMoEモデルに変換する新しいフレームワークRead-MEを提案する。
当社のアプローチでは,専門家の抽出にアクティベーション空間を用いる。
Read-MEは、同様のスケールの他の人気のあるオープンソース高密度モデルよりも優れています。
論文 参考訳(メタデータ) (2024-10-24T19:48:51Z) - EPS-MoE: Expert Pipeline Scheduler for Cost-Efficient MoE Inference [49.94169109038806]
本稿では,新しいパイプラインスケジューラであるEPS-MoEを紹介する。
その結果,既存の並列推論手法に比べて,プリフィルスループットが平均21%向上していることが判明した。
論文 参考訳(メタデータ) (2024-10-16T05:17:49Z) - CREMA: Generalizable and Efficient Video-Language Reasoning via Multimodal Modular Fusion [58.15403987979496]
CREMAは、ビデオ推論のための一般化可能、高効率、モジュラリティ融合フレームワークである。
本稿では,軽量核融合モジュールとモーダリティ・シークエンシャル・トレーニング・ストラテジーによって支援された,新しいプログレッシブ・マルチモーダル・フュージョン設計を提案する。
ビデオQA や Video-Audio/3D/Touch/Thermal QA を含む7つのビデオ言語推論タスクについて検証を行った。
論文 参考訳(メタデータ) (2024-02-08T18:27:22Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Can SAM Boost Video Super-Resolution? [78.29033914169025]
単純な有効モジュールであるSAM-guidEd refinEment Module (SEEM)を提案する。
この軽量プラグインモジュールは、セマンティック・アウェア機能の生成にアテンションメカニズムを活用するように設計されている。
我々はSEEMをEDVRとBasicVSRの2つの代表的手法に適用し、最小限の実装労力で継続的に性能を向上する。
論文 参考訳(メタデータ) (2023-05-11T02:02:53Z) - Energy Efficiency Maximization in IRS-Aided Cell-Free Massive MIMO
System [2.9081408997650375]
本稿では、入射点におけるビームフォーミングとIRSにおける位相シフトを共同最適化してエネルギー効率(EE)を最大化する、インテリジェント反射面(IRS)を用いたセルレス大規模マルチインプット多重出力システムについて考察する。
EE問題を解くために,2次変換とラグランジアン双対変換を用いて最適ビームフォーミングと位相シフトを求める反復最適化アルゴリズムを提案する。
さらに,共同ビームフォーミングと位相シフト設計のための深層学習に基づくアプローチを提案する。具体的には,教師なし学習方式を用いて2段階の深層ニューラルネットワークをオフラインでトレーニングし,オンラインに展開する。
論文 参考訳(メタデータ) (2022-12-24T14:58:15Z) - Deep Learning-Based Power Control for Uplink Cell-Free Massive MIMO
Systems [31.06830781747216]
提案手法は教師あり学習の代わりに教師なし学習に頼っている。
ディープニューラルネットワーク(DNN)は、フェーディング係数とパワー係数のマップを短時間で学習するために訓練される。
提案手法によるmMIMOシステムのスペクトル効率は,最大値最適化のための従来の最適化手法よりも優れていた。
論文 参考訳(メタデータ) (2021-10-18T03:48:54Z) - Federated Learning via Intelligent Reflecting Surface [30.935389187215474]
オーバー・ザ・エア・コンピューティング・アルゴリズム(FL)は,複数のアクセスチャネルの波形重畳特性を利用して高速なモデルアグリゲーションを実現することができる。
本稿では,AirCompベースのFLのための高速かつ信頼性の高いモデルアグリゲーションを実現するための2段階最適化フレームワークを提案する。
シミュレーションの結果,提案するフレームワークとIRSの展開により,ベースラインアルゴリズムよりもトレーニング損失が低く,FL予測精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-11-10T11:29:57Z) - Optimization-driven Machine Learning for Intelligent Reflecting Surfaces
Assisted Wireless Networks [82.33619654835348]
インテリジェントサーフェス(IRS)は、個々の散乱素子の位相シフトを制御して無線チャネルを再形成するために用いられる。
散乱素子の規模が大きいため、受動ビームフォーミングは一般に高い計算複雑性によって挑戦される。
本稿では、IRS支援無線ネットワークの性能向上のための機械学習(ML)アプローチに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-29T08:39:43Z) - Intelligent and Reconfigurable Architecture for KL Divergence Based
Online Machine Learning Algorithm [0.0]
オンライン機械学習(OML)アルゴリズムは、トレーニングフェーズを一切必要とせず、未知の環境に直接デプロイすることができる。
オンライン機械学習(OML)アルゴリズムは、トレーニングフェーズを一切必要とせず、未知の環境に直接デプロイすることができる。
論文 参考訳(メタデータ) (2020-02-18T16:39:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。