論文の概要: Wireless Power Control Based on Large Language Models
- arxiv url: http://arxiv.org/abs/2603.00474v1
- Date: Sat, 28 Feb 2026 05:20:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.214144
- Title: Wireless Power Control Based on Large Language Models
- Title(参考訳): 大規模言語モデルに基づく無線電力制御
- Authors: Jiacheng Wang, Yucheng Sheng, Le Liang, Hao Ye, Shi Jin,
- Abstract要約: 物理インフォームド・フレームワークであるPC-LLMを提案する。
大規模な実験では、PC-LLMは従来の最適化手法と最先端のグラフニューラルネットワークのベースラインの両方を一貫して上回っている。
我々は,モデル深度を50%削減し,推論コストを大幅に低減する軽量適応戦略を開発した。
- 参考スコア(独自算出の注目度): 37.503398874234094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates the power control problem in wireless networks by repurposing pre-trained large language models (LLMs) as relational reasoning backbones. In hyper-connected interference environments, traditional optimization methods face high computational cost, while standard message passing neural networks suffer from aggregation bottlenecks that can obscure critical high-interference structures. In response, we propose PC-LLM, a physics-informed framework that augments a pre-trained Transformer with an interference-aware attention bias. The proposed bias tuning mechanism injects the physical channel gain matrix directly into the self-attention logits, enabling explicit fusion of wireless topology with pre-trained relational priors without retraining the backbone from scratch. Extensive experiments demonstrate that PC-LLM consistently outperforms both traditional optimization methods and state-of-the-art graph neural network baselines, while exhibiting exceptional zero-shot generalization to unseen environments. We further observe a structural-semantic decoupling phenomenon: Topology-relevant relational reasoning is concentrated in shallow layers, whereas deeper layers encode task-irrelevant semantic noise. Motivated by this finding, we develop a lightweight adaptation strategy that reduces model depth by 50\%, significantly lowering inference cost while preserving state-of-the-art spectral efficiency.
- Abstract(参考訳): 本稿では,事前学習された大言語モデル(LLM)をリレーショナル推論バックボーンとして再利用することで,無線ネットワークにおける電力制御問題について検討する。
ハイパーコネクテッドな干渉環境では、従来の最適化手法は高い計算コストに直面し、標準的なメッセージパッシングニューラルネットワークは、重要な高干渉構造を曖昧にするような凝集ボトルネックに悩まされる。
そこで本研究では,事前学習したトランスフォーマーを干渉認識型アテンションバイアスで拡張する物理インフォームドフレームワークであるPC-LLMを提案する。
提案したバイアスチューニング機構は, 物理的チャネルゲイン行列を直接自己アテンションロジットに注入し, バックボーンをスクラッチからリトレーニングすることなく, 無線トポロジと事前トレーニングしたリレーショナルプリエントとの明確な融合を可能にする。
大規模な実験では、PC-LLMは従来の最適化手法と最先端のグラフニューラルネットワークのベースラインを一貫して上回り、目に見えない環境に例外的なゼロショットの一般化を示す。
トポロジ関連リレーショナル推論は浅い層に集中しているのに対し、深い層はタスク非関連セマンティックノイズを符号化している。
そこで本研究では, モデル深度を50%削減し, スペクトル効率を保ちつつ, 推論コストを大幅に低減する軽量適応手法を開発した。
関連論文リスト
- ANCRe: Adaptive Neural Connection Reassignment for Efficient Depth Scaling [57.91760520589592]
ネットワークの深度を拡大することは、現代の基礎モデルの成功の背後にある中心的な要因である。
本稿では,ニューラルネットワークの奥行き,すなわち残差接続の既定メカニズムを再考する。
我々は、データから残余接続性をパラメータ化し、学習する原則的かつ軽量なフレームワークである、適応型ニューラルネットワーク再割り当て(ANCRe)を導入する。
論文 参考訳(メタデータ) (2026-02-09T18:54:18Z) - Joint Source-Channel-Generation Coding: From Distortion-oriented Reconstruction to Semantic-consistent Generation [58.67925548779465]
本稿では,知覚的再構成から確率的生成へ焦点を移す新しいパラダイムとして,JSCGC(Joint Source-Channel-Generation Coding)を提案する。
JSCGCは意味的品質と意味的忠実性を大幅に改善し、従来の歪み指向J SCC法よりも大幅に向上する。
論文 参考訳(メタデータ) (2026-01-19T08:12:47Z) - More Than A Shortcut: A Hyperbolic Approach To Early-Exit Networks [42.45014573840505]
HypEEは、ハイパーボリックな空間でEE表現を学ぶ新しいフレームワークです。
我々はHypEEが標準のEuclidean EEベースラインを大幅に上回っていることを示す。
学習された幾何学はまた、不確実性の原則的な尺度を提供し、新しいトリガー機構を可能にする。
論文 参考訳(メタデータ) (2025-11-01T17:43:02Z) - If You Want to Be Robust, Be Wary of Initialization [28.195617869726636]
グラフニューラルネットワーク(GNN)は、グラフ関連タスクのスペクトルにわたって顕著なパフォーマンスを示している。
しかし、敵の摂動に対する脆弱性については懸念が続いている。
本稿では,初期化戦略と敵の摂動に対するネットワークのレジリエンスの関連性を橋渡しする理論的枠組みを提案する。
分析の結果,初期重み,トレーニングエポック数,モデルの脆弱性の直接的な関係が明らかになった。
論文 参考訳(メタデータ) (2025-10-26T12:28:12Z) - The Larger the Merrier? Efficient Large AI Model Inference in Wireless Edge Networks [56.37880529653111]
大規模計算モデル(LAIM)サービスの需要は、従来のクラウドベースの推論から、低レイテンシでプライバシ保護のアプリケーションのためのエッジベースの推論へのパラダイムシフトを推進している。
本稿では,事前学習したLAIMをデバイス上のサブモデルとサーバ上のサブモデルに分割して配置するLAIM推論方式について検討する。
論文 参考訳(メタデータ) (2025-05-14T08:18:55Z) - Channel Fingerprint Construction for Massive MIMO: A Deep Conditional Generative Approach [65.47969413708344]
CF双生児の概念を導入し、条件付き生成拡散モデル(CGDM)を設計する。
本研究では, 粗粒CFに条件付き観測された細粒CFの対数分布に対するエビデンスローバウンド(ELBO)を導出するために, 変分推論手法を用いる。
提案手法は, ベースラインと比較して, 復元性能が著しく向上していることを示す。
論文 参考訳(メタデータ) (2025-05-12T01:36:06Z) - Graph-based Algorithm Unfolding for Energy-aware Power Allocation in
Wireless Networks [27.600081147252155]
我々は,無線通信網におけるエネルギー効率を最大化する新しいグラフ要約フレームワークを開発した。
無線ネットワークデータのモデルに望ましい特性である置換訓練について述べる。
結果は、異なるネットワークトポロジにまたがる一般化可能性を示している。
論文 参考訳(メタデータ) (2022-01-27T20:23:24Z) - An Ode to an ODE [78.97367880223254]
我々は、O(d) 群上の行列フローに応じて主フローの時間依存パラメータが進化する ODEtoODE と呼ばれるニューラルODE アルゴリズムの新しいパラダイムを提案する。
この2つの流れのネストされたシステムは、訓練の安定性と有効性を提供し、勾配の消滅・爆発問題を確実に解決する。
論文 参考訳(メタデータ) (2020-06-19T22:05:19Z) - Compact Neural Representation Using Attentive Network Pruning [1.0152838128195465]
本稿では,Bottom-Upフィードフォワードネットワークに付加されたTop-Downアテンション機構について述べる。
提案手法は, 新たな階層選択機構をプルーニングの基礎として導入するだけでなく, 実験評価において, 従来のベースライン手法と競合するままである。
論文 参考訳(メタデータ) (2020-05-10T03:20:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。