論文の概要: LLM4XCE: Large Language Models for Extremely Large-Scale Massive MIMO Channel Estimation
- arxiv url: http://arxiv.org/abs/2512.08955v1
- Date: Fri, 28 Nov 2025 08:48:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 04:16:52.569554
- Title: LLM4XCE: Large Language Models for Extremely Large-Scale Massive MIMO Channel Estimation
- Title(参考訳): LLM4XCE:超大規模MIMOチャネル推定のための大規模言語モデル
- Authors: Renbin Li, Shuangshuang Li, Peihao Dong,
- Abstract要約: 大規模言語モデル(LLM)は、微調整によって下流タスクで素晴らしいパフォーマンスを達成した。
本稿では,XL-MIMOチャネル推定(LLM4XCE)のための大規模言語モデルを提案する。
LLM4XCEは、ハイブリッドフィールド条件下で既存の最先端手法よりも大幅に優れている。
- 参考スコア(独自算出の注目度): 0.764671395172401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extremely large-scale massive multiple-input multiple-output (XL-MIMO) is a key enabler for sixth-generation (6G) networks, offering massive spatial degrees of freedom. Despite these advantages, the coexistence of near-field and far-field effects in hybrid-field channels presents significant challenges for accurate estimation, where traditional methods often struggle to generalize effectively. In recent years, large language models (LLMs) have achieved impressive performance on downstream tasks via fine-tuning, aligning with the semantic communication shift toward task-oriented understanding over bit-level accuracy. Motivated by this, we propose Large Language Models for XL-MIMO Channel Estimation (LLM4XCE), a novel channel estimation framework that leverages the semantic modeling capabilities of large language models to recover essential spatial-channel representations for downstream tasks. The model integrates a carefully designed embedding module with Parallel Feature-Spatial Attention, enabling deep fusion of pilot features and spatial structures to construct a semantically rich representation for LLM input. By fine-tuning only the top two Transformer layers, our method effectively captures latent dependencies in the pilot data while ensuring high training efficiency. Extensive simulations demonstrate that LLM4XCE significantly outperforms existing state-of-the-art methods under hybrid-field conditions, achieving superior estimation accuracy and generalization performance.
- Abstract(参考訳): XL-MIMO (Extremely large-scale massive multiple-input multiple-output) は、第6世代(6G)ネットワークにおいて大きな空間的自由度を提供する重要なイネーブルである。
これらの利点にもかかわらず、ハイブリッドフィールドチャネルにおける近接場効果と遠距離場効果の共存は、従来の手法がしばしば効果的に一般化するのに苦労する、正確な推定に重大な課題をもたらす。
近年、大規模言語モデル(LLM)は、ビットレベルの精度よりもタスク指向の理解へ向けた意味的なコミュニケーションシフトと整合し、微調整によって下流タスクにおける印象的なパフォーマンスを達成している。
そこで我々は,大規模言語モデルのセマンティックモデリング機能を活用して,下流タスクに必須な空間チャネル表現を復元する,XL-MIMOチャネル推定のためのLarge Language Models for XL-MIMO Channel Estimation (LLM4XCE)を提案する。
このモデルは、慎重に設計された埋め込みモジュールを並列特徴空間注意と統合し、パイロット特徴と空間構造を深く融合させることで、LLM入力のセマンティックにリッチな表現を構築することができる。
上位2層のトランスフォーマー層のみを微調整することにより、パイロットデータへの潜伏した依存関係を効果的に捕捉し、高いトレーニング効率を確保する。
LLM4XCEは、ハイブリッドフィールド条件下での既存の最先端手法を著しく上回り、推定精度と一般化性能に優れることを示した。
関連論文リスト
- Vision-LLMs for Spatiotemporal Traffic Forecasting [14.700408329373998]
大規模言語モデル(LLM)は、グリッドベースのトラフィックデータの複雑な空間的依存関係をモデル化するのに本質的に苦労する。
本稿では,視覚言語融合問題として時間的予測を行う新しいフレームワークであるST-Vision-LLMを提案する。
また,ST-Vision-LLMでは,長期予測精度が15.6%向上し,クロスドメインシナリオでは30.04%以上向上した。
論文 参考訳(メタデータ) (2025-10-13T11:15:56Z) - SCA-LLM: Spectral-Attentive Channel Prediction with Large Language Models in MIMO-OFDM [63.80082983068669]
アダプタは、チャネル状態情報(CSI)データと大規模言語モデル(LLM)の間の領域ギャップを埋めるように設計されている。
マルチインプット多重出力周波数分割多重化(MIMO-OFDM)システムにおけるチャネル予測のためのスペクトル減衰フレームワークSCA-LLMを提案する。
論文 参考訳(メタデータ) (2025-09-09T20:43:12Z) - Align-Then-stEer: Adapting the Vision-Language Action Models through Unified Latent Guidance [63.33213516925946]
textbfAlign-Then-stEer(textttATE)は,新しいデータ効率,プラグアンドプレイ適応フレームワークである。
我々の研究は、新しいロボットプラットフォームやタスクにVLAモデルをデプロイする実用性を大幅に向上させる、汎用的で軽量なソリューションを提供する。
論文 参考訳(メタデータ) (2025-09-02T07:51:59Z) - Aligning Effective Tokens with Video Anomaly in Large Language Models [42.99603812716817]
本稿では,様々なビデオにおける異常事象の要約と局所化を目的とした新しいMLLMであるVA-GPTを提案する。
提案手法は,視覚エンコーダとLCM間の有効トークンを2つの重要なモジュールを通して効率的に整列する。
本研究では,ビデオアノマ対応MLLMの微調整のための命令追従データセットを構築した。
論文 参考訳(メタデータ) (2025-08-08T14:30:05Z) - Selective State Space Memory for Large Vision-Language Models [0.0]
State Space Memory Integration (SSMI)は、LVLMの効率的な微調整のための新しいアプローチである。
SSMIは長距離依存関係をキャプチャし、タスク固有の視覚的およびシーケンシャルなパターンを効果的に注入する。
COCO Captioning、VQA、Flickr30kといったベンチマークデータセットの実験は、SSMIが最先端のパフォーマンスを達成することを実証している。
論文 参考訳(メタデータ) (2024-12-13T05:40:50Z) - VLsI: Verbalized Layers-to-Interactions from Large to Small Vision Language Models [84.84277196012907]
VLsI: Verbalized Layers-to-Interactions, a new VLM family in 2B and 7B model size。
GPT-4Vよりも優れた性能向上(2Bは11.0%、7Bは17.4%)を達成した。
論文 参考訳(メタデータ) (2024-12-02T18:58:25Z) - Weakly Supervised Temporal Action Localization via Dual-Prior Collaborative Learning Guided by Multimodal Large Language Models [33.37379526356273]
MLLM4WTALと呼ばれる新しい学習パラダイムを導入する。
MLLMのポテンシャルを利用して、時間的アクションキーセマンティクスと完全なセマンティクスの事前を提供する。
キーセマンティックマッチング(KSM)と完全セマンティック再構成(CSR)の2つの異なるモジュールを統合することでこれを実現できる。
論文 参考訳(メタデータ) (2024-11-13T09:37:24Z) - STLLM-DF: A Spatial-Temporal Large Language Model with Diffusion for Enhanced Multi-Mode Traffic System Forecasting [32.943673568195315]
マルチタスク輸送予測を改善するため,時空間大言語モデル(STLLM-DF)を提案する。
DDPMの堅牢なdenoising機能により、ノイズの多い入力から基盤となるデータパターンを復元することができる。
STLLM-DFは既存のモデルより一貫して優れており,MAEでは平均2.40%,RMSEでは4.50%,MAPEでは1.51%の削減を実現している。
論文 参考訳(メタデータ) (2024-09-08T15:29:27Z) - Generative Multimodal Entity Linking [24.322540112710918]
MEL(Multimodal Entity Linking)は、知識ベースからの参照エンティティへの参照をマルチモーダルコンテキストでマッピングするタスクである。
既存のMEL法は主に複雑なマルチモーダル相互作用機構の設計に重点を置いており、すべてのモデルパラメータを微調整する必要がある。
大規模言語モデル(LLM)に基づくジェネレーティブマルチモーダルエンティティリンクフレームワークであるGEMELを提案する。
当社のフレームワークは市販の言語モデルと互換性があり、効率的で汎用的なソリューションへの道を開いたものです。
論文 参考訳(メタデータ) (2023-06-22T07:57:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。