論文の概要: A Foundation Model for Massive MIMO Precoding with an Adaptive per-User Rate-Power Tradeoff
- arxiv url: http://arxiv.org/abs/2507.18587v1
- Date: Thu, 24 Jul 2025 17:10:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:44.219368
- Title: A Foundation Model for Massive MIMO Precoding with an Adaptive per-User Rate-Power Tradeoff
- Title(参考訳): ユーザ毎のレート・パワー・トレードオフを考慮したMIMOプリコーディングの基礎モデル
- Authors: Jérôme Emery, Ali Hasanzadeh Karkan, Jean-François Frigon, François Leduc-Primeau,
- Abstract要約: 本稿では,mMIMOプリコーディングのためのトランスフォーマーベース基礎モデルを提案する。
エネルギー消費が等しく、提案した基礎モデルのゼロショット展開はゼロ強制よりも著しく優れ、重み付き平均二乗誤差性能を8倍の複雑さでアプローチする。
我々の研究は、データの可用性とトレーニングの複雑さの課題に対処することで、DLベースのソリューションを実践的に実装することを可能にする。
- 参考スコア(独自算出の注目度): 4.8310710966636545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning (DL) has emerged as a solution for precoding in massive multiple-input multiple-output (mMIMO) systems due to its capacity to learn the characteristics of the propagation environment. However, training such a model requires high-quality, local datasets at the deployment site, which are often difficult to collect. We propose a transformer-based foundation model for mMIMO precoding that seeks to minimize the energy consumption of the transmitter while dynamically adapting to per-user rate requirements. At equal energy consumption, zero-shot deployment of the proposed foundation model significantly outperforms zero forcing, and approaches weighted minimum mean squared error performance with 8x less complexity. To address model adaptation in data-scarce settings, we introduce a data augmentation method that finds training samples similar to the target distribution by computing the cosine similarity between the outputs of the pre-trained feature extractor. Our work enables the implementation of DL-based solutions in practice by addressing challenges of data availability and training complexity. Moreover, the ability to dynamically configure per-user rate requirements can be leveraged by higher level resource allocation and scheduling algorithms for greater control over energy efficiency, spectral efficiency and fairness.
- Abstract(参考訳): 深層学習 (DL) は, 伝搬環境の特性を学習する能力から, 大規模マルチインプットマルチアウトプット (mMIMO) システムにおけるプリコーディングのソリューションとして登場した。
しかし、そのようなモデルをトレーニングするにはデプロイメントサイトで高品質でローカルなデータセットが必要です。
本稿では,mMIMOプリコーディングのためのトランスフォーマーベース基礎モデルを提案する。
エネルギー消費が等しく、提案した基礎モデルのゼロショット展開はゼロ強制よりも著しく優れ、重み付き平均二乗誤差性能を8倍の複雑さでアプローチする。
データ・スカース・セッティングにおけるモデル適応に対処するため,事前学習した特徴抽出器の出力間のコサイン類似性を計算することにより,目標分布に類似したトレーニングサンプルを求めるデータ拡張手法を提案する。
我々の研究は、データの可用性とトレーニングの複雑さの課題に対処することで、DLベースのソリューションを実践的に実装することを可能にする。
さらに, エネルギー効率, スペクトル効率, 公平性に対する制御性を高めるため, 高レベルの資源割り当てとスケジューリングアルゴリズムにより, ユーザ毎の要求を動的に設定することができる。
関連論文リスト
- DSMoE: Matrix-Partitioned Experts with Dynamic Routing for Computation-Efficient Dense LLMs [70.91804882618243]
本稿では,事前学習したFFN層を計算ブロックに分割することで,分散化を実現するDSMoEを提案する。
我々は,Sigmoid アクティベーションとストレートスルー推定器を用いた適応型エキスパートルーティングを実装し,トークンがモデル知識の様々な側面に柔軟にアクセスできるようにする。
LLaMAモデルを用いた実験により、DSMoEは既存のプルーニング法やMoE法に比べて優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-02-18T02:37:26Z) - FedMHO: Heterogeneous One-Shot Federated Learning Towards Resource-Constrained Edge Devices [12.08958206272527]
フェデレートラーニング(FL)はエッジコンピューティングのシナリオにおいてますます採用され、多くの異種クライアントが制約や十分なリソースの下で運用されている。
ワンショットFLは通信オーバーヘッドを軽減するための有望なアプローチとして登場し、モデルヘテロジニアスFLはクライアント間の多様なコンピューティングリソースの問題を解決する。
本稿では,リソースに制約のあるデバイス上で,リソースに十分なクライアントと軽量な生成モデルに対して,詳細な分類モデルを活用するFedMHOという新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-12T15:54:56Z) - Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - Online Client Scheduling and Resource Allocation for Efficient Federated Edge Learning [9.451084740123198]
フェデレートラーニング(FL)は、エッジデバイスが生データを共有せずに、機械学習モデルを協調的にトレーニングすることを可能にする。
しかし、電力、帯域幅などの制約のあるリソースを持つモバイルエッジネットワーク上にFLをデプロイすることは、高いトレーニングレイテンシと低いモデルの精度に悩まされる。
本稿では,資源制約と不確実性の下で,モバイルエッジネットワーク上でのFLの最適なクライアントスケジューリングとリソース割り当てについて検討する。
論文 参考訳(メタデータ) (2024-09-29T01:56:45Z) - Load Balancing in Federated Learning [3.2999744336237384]
Federated Learning(FL)は、複数のリモートデバイスに分散したデータからの学習を可能にする、分散機械学習フレームワークである。
本稿では,情報時代に基づくスケジューリングポリシーの負荷指標を提案する。
マルコフ連鎖モデルの最適パラメータを確立し、シミュレーションによりアプローチを検証する。
論文 参考訳(メタデータ) (2024-08-01T00:56:36Z) - Take the Bull by the Horns: Hard Sample-Reweighted Continual Training
Improves LLM Generalization [165.98557106089777]
大きな言語モデル(LLM)の能力を高めることが大きな課題だ。
本研究は,従来の事前学習データセットを用いたLCMの光連続訓練に関する実証的戦略から始まった。
次に、この戦略をインスタンス重み付け分散ロバスト最適化の原則化されたフレームワークに定式化します。
論文 参考訳(メタデータ) (2024-02-22T04:10:57Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Asynchronous Multi-Model Dynamic Federated Learning over Wireless
Networks: Theory, Modeling, and Optimization [20.741776617129208]
分散機械学習(ML)の鍵となる技術として、フェデレートラーニング(FL)が登場した。
まず、システムパラメータが学習性能に与える影響を捉えるために、長方形のスケジューリングステップと関数を定式化する。
我々の分析は、デバイストレーニング変数と非同期スケジューリング決定の協調的影響に光を当てている。
論文 参考訳(メタデータ) (2023-05-22T21:39:38Z) - Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective [52.497514255040514]
この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
論文 参考訳(メタデータ) (2021-05-03T07:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。