論文の概要: SCA-LLM: Spectral-Attentive Channel Prediction with Large Language Models in MIMO-OFDM
- arxiv url: http://arxiv.org/abs/2509.08139v1
- Date: Tue, 09 Sep 2025 20:43:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.243329
- Title: SCA-LLM: Spectral-Attentive Channel Prediction with Large Language Models in MIMO-OFDM
- Title(参考訳): SCA-LLM:MIMO-OFDMにおける大規模言語モデルを用いたスペクトル検出チャネル予測
- Authors: Ke He, Le He, Lisheng Fan, Xianfu Lei, Thang X. Vu, George K. Karagiannidis, Symeon Chatzinotas,
- Abstract要約: アダプタは、チャネル状態情報(CSI)データと大規模言語モデル(LLM)の間の領域ギャップを埋めるように設計されている。
マルチインプット多重出力周波数分割多重化(MIMO-OFDM)システムにおけるチャネル予測のためのスペクトル減衰フレームワークSCA-LLMを提案する。
- 参考スコア(独自算出の注目度): 63.80082983068669
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, the success of large language models (LLMs) has inspired growing interest in exploring their potential applications in wireless communications, especially for channel prediction tasks. However, directly applying LLMs to channel prediction faces a domain mismatch issue stemming from their text-based pre-training. To mitigate this, the ``adapter + LLM" paradigm has emerged, where an adapter is designed to bridge the domain gap between the channel state information (CSI) data and LLMs. While showing initial success, existing adapters may not fully exploit the potential of this paradigm. To address this limitation, this work provides a key insight that learning representations from the spectral components of CSI features can more effectively help bridge the domain gap. Accordingly, we propose a spectral-attentive framework, named SCA-LLM, for channel prediction in multiple-input multiple-output orthogonal frequency division multiplexing (MIMO-OFDM) systems. Specifically, its novel adapter can capture finer spectral details and better adapt the LLM for channel prediction than previous methods. Extensive simulations show that SCA-LLM achieves state-of-the-art prediction performance and strong generalization, yielding up to $-2.4~\text{dB}$ normalized mean squared error (NMSE) advantage over the previous LLM based method. Ablation studies further confirm the superiority of SCA-LLM in mitigating domain mismatch.
- Abstract(参考訳): 近年、大規模言語モデル(LLM)の成功は、特にチャネル予測タスクにおいて、無線通信における潜在的な応用を探求することへの関心が高まっている。
しかし、LLMをチャネル予測に直接適用することは、テキストベースの事前学習から生じるドメインミスマッチ問題に直面している。
これを軽減するために、'adapter + LLM'パラダイムが登場し、アダプタはチャネル状態情報(CSI)データとLLM間のドメインギャップを橋渡しするように設計されている。
初期の成功を示す一方で、既存のアダプタは、このパラダイムの可能性を十分に活用していないかもしれない。
この制限に対処するために、この研究は、CSI機能のスペクトル成分からの学習表現が、ドメインギャップをより効果的に橋渡しできるという重要な洞察を提供する。
そこで本研究では,マルチインプットマルチ出力直交周波数分割多重化(MIMO-OFDM)システムにおけるチャネル予測のためのスペクトル減衰フレームワークであるSCA-LLMを提案する。
具体的には、その新しいアダプタは、より微細なスペクトルの詳細をキャプチャし、従来の方法よりもLLMをチャネル予測に適応させることができる。
拡張シミュレーションにより,SCA-LLMは従来のLCM法に比べて最大$-2.4~\text{dB}$正規化平均二乗誤差(NMSE)の優位性を得ることができた。
アブレーション研究は、ドメインミスマッチの緩和におけるSCA-LLMの優位性をさらに裏付ける。
関連論文リスト
- When can isotropy help adapt LLMs' next word prediction to numerical domains? [53.98633183204453]
文脈埋め込み空間におけるLLM埋め込みの等方性は表現の基盤構造を保存することが示されている。
実験により、数値データとモデルアーキテクチャの異なる特性が等方性に異なる影響があることが示されている。
論文 参考訳(メタデータ) (2025-05-22T05:10:34Z) - Making Acoustic Side-Channel Attacks on Noisy Keyboards Viable with LLM-Assisted Spectrograms' "Typo" Correction [5.0998111447316194]
マイクロホンのデバイスへの大規模な統合はアコースティックサイドチャネルアタック(ASCA)の機会を増大させる
ASCAの現在の状態-Of-The-Art(SOTA)モデルは、現実的な雑音条件下では限られた堅牢性を示す。
本稿では,視覚変換器(VTs)と大言語モデル(LLMs)をASCAに組み込む一貫したアプローチを提案する。
論文 参考訳(メタデータ) (2025-04-15T21:23:25Z) - Beam Prediction based on Large Language Models [51.45077318268427]
時系列予測タスクとしてミリ波(mmWave)ビーム予測問題を定式化する。
我々は、歴史的観測をトレーニング可能なトークン化器を用いてテキストベースの表現に変換する。
提案手法はLLMのパワーを利用して将来の最適ビームを予測する。
論文 参考訳(メタデータ) (2024-08-16T12:40:01Z) - Csi-LLM: A Novel Downlink Channel Prediction Method Aligned with LLM Pre-Training [3.2721332912474668]
大規模言語モデル(LLM)は、複雑な配列に対して強力なパターン認識と推論能力を示す。
可変ステップ履歴列をモデル化するLLMを用いたダウンリンクチャネル予測技術であるCsi-LLMを紹介する。
そこで我々は,Csi-LLMの設計と訓練を自然言語タスクの処理と整合させる。
論文 参考訳(メタデータ) (2024-08-15T11:39:23Z) - R-SFLLM: Jamming Resilient Framework for Split Federated Learning with Large Language Models [83.77114091471822]
Split Federated Learning (SFL)は、分散機械学習(ML)における計算効率のパラダイムである。
SFLの課題は、特に無線チャネル上に展開する場合、送信されたモデルパラメータが相手のジャミングに感受性を持つことである。
これは、言語理解に不可欠である大規模言語モデル(LLM)における単語埋め込みパラメータに対して特に顕著である。
無線ネットワーク上でのLLM(R-SFLLM)を用いたレジリエンスSFLのための物理層フレームワークを開発した。
論文 参考訳(メタデータ) (2024-07-16T12:21:29Z) - CRaSh: Clustering, Removing, and Sharing Enhance Fine-tuning without
Full Large Language Model [22.870512676002463]
本稿では,集中型LCMと下流エミュレータ間でトランスフォーマブロックを転送する代表的手法であるOffsite-Tuning(OFT)に焦点を当てる。
これらの観測にインスパイアされたCRaShは、LCMから改善エミュレータを導出するトレーニングフリー戦略であるClustering、Removing、Sharingを含む。
以上の結果から,CRaShとOFTの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-10-24T03:08:58Z) - Large AI Model Empowered Multimodal Semantic Communications [48.73159237649128]
本稿では,Large AI Model-based Multimodal SC (LAMMSC) フレームワークを提案する。
まず、条件付きマルチモーダルアライメント(MMA)を提案し、マルチモーダルデータと非モーダルデータ間の変換を可能にする。
次に、パーソナライズされたLLMベースの知識ベース(LKB)を提案し、ユーザがパーソナライズされたセマンティック抽出やリカバリを行うことができる。
最後に,CGE(Generative Adversarial Network-based Channel Estimation)を用いて,無線チャネルの状態情報を推定する。
論文 参考訳(メタデータ) (2023-09-03T19:24:34Z) - Continual learning using lattice-free MMI for speech recognition [6.802401545890963]
連続学習(CL)または領域拡張(ドメイン拡張)は、自動音声認識(ASR)音響モデリングにおいて一般的なトピックである。
格子フリー最大相互情報(LF-MMI)基準で学習したニューラルネットワーク音響モデルの正規化に基づくCLを提案する。
シーケンスレベルのLWFは、通常のLWFと比較して、全ドメインの平均単語誤り率を最大9.4%向上させることができることを示す。
論文 参考訳(メタデータ) (2021-10-13T22:11:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。