論文の概要: LLM-Empowered Agentic MAC Protocols: A Dynamic Stackelberg Game Approach
- arxiv url: http://arxiv.org/abs/2510.10895v1
- Date: Mon, 13 Oct 2025 01:47:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.144299
- Title: LLM-Empowered Agentic MAC Protocols: A Dynamic Stackelberg Game Approach
- Title(参考訳): LLM-Empowered Agentic MAC Protocols: Dynamic Stackelberg Game Approach
- Authors: Renxuan Tan, Rongpeng Li, Fei Wang, Chenghui Peng, Shaoyun Wu, Zhifeng Zhao, Honggang Zhang,
- Abstract要約: ゲーム理論のLLMを用いたマルチエージェントDRL(MARL)フレームワークを提案する。
基地局と各種ユーザ機器間のアップリンク伝送は、動的マルチフォローラー・スタックルバーグゲーム(MFSG)としてモデル化される。
このゲームの中で、LLM駆動エージェントは、近似ポリシー最適化(PPO)を通じて調整され、適応的セマンティックMACプロトコルを合成する。
- 参考スコア(独自算出の注目度): 13.272022414257224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medium Access Control (MAC) protocols, essential for wireless networks, are typically manually configured. While deep reinforcement learning (DRL)-based protocols enhance task-specified network performance, they suffer from poor generalizability and resilience, demanding costly retraining to adapt to dynamic environments. To overcome this limitation, we introduce a game-theoretic LLM-empowered multi-agent DRL (MARL) framework, in which the uplink transmission between a base station and a varying number of user equipments is modeled as a dynamic multi-follower Stackelberg game (MFSG), capturing the network's natural hierarchical structure. Within this game, LLM-driven agents, coordinated through proximal policy optimization (PPO), synthesize adaptive, semantic MAC protocols in response to network dynamics. Protocol action grammar (PAG) is employed to ensure the reliability and efficiency of this process. Under this system, we further analyze the existence and convergence behavior in terms of a Stackelberg equilibrium by studying the learning dynamics of LLM-empowered unified policies in response to changing followers. Simulations corroborate that our framework achieves a 77.6% greater throughput and a 65.2% fairness improvement over conventional baselines. Besides, our framework generalizes excellently to a fluctuating number of users without requiring retraining or architectural changes.
- Abstract(参考訳): 無線ネットワークに不可欠なメディアアクセス制御(MAC)プロトコルは、通常は手動で設定される。
深層強化学習(DRL)ベースのプロトコルはタスク特定ネットワーク性能を向上させるが、それらは一般化性やレジリエンスの低下に悩まされ、動的環境に適応するためにコストがかかる。
この制限を克服するために、基地局と様々なユーザ機器間のアップリンク伝送を動的マルチフォローラー・スタックルバーグゲーム(MFSG)としてモデル化し、ネットワークの自然な階層構造をキャプチャするゲーム理論 LLM 内蔵マルチエージェント DRL (MARL) フレームワークを導入する。
このゲーム内では、近似ポリシー最適化(PPO)を通じて協調されたLLM駆動エージェントが、ネットワークダイナミクスに応答して適応的セマンティックMACプロトコルを合成する。
プロトコルアクション文法(PAG)は、このプロセスの信頼性と効率を確保するために用いられる。
本システムでは,LLMを活用した統一政策の学習力学を,従属者の変化に対応して研究することにより,スタックルバーグ均衡の観点からの存在と収束挙動を更に分析する。
シミュレーションでは,従来のベースラインよりも77.6%のスループット,65.2%の公正性向上を実現している。
さらに,本フレームワークは,リトレーニングやアーキテクチャ変更を必要とせずに,変動するユーザ数に優れた一般化を行う。
関連論文リスト
- CollaPipe: Adaptive Segment-Optimized Pipeline Parallelism for Collaborative LLM Training in Heterogeneous Edge Networks [57.95170323315603]
CollaPipeは、コラボレーティブパイプライン並列性とフェデレーションアグリゲーションを統合し、自己進化型ネットワークをサポートする分散学習フレームワークである。
CollaPipeでは、エンコーダ部分は可変サイズのセグメントに適応的に分割され、パイプライン並列トレーニングのためにモバイルデバイスにデプロイされ、デコーダは生成タスクを処理するためにエッジサーバにデプロイされる。
トレーニング効率を向上させるために,モデルセグメント,マイクロバッチ,帯域幅,送信電力を適応的に割り当てる共同最適化問題を定式化する。
論文 参考訳(メタデータ) (2025-09-24T07:54:01Z) - Symbiotic Agents: A Novel Paradigm for Trustworthy AGI-driven Networks [1.5684305805304426]
大規模言語モデル(LLM)に基づく自律エージェントは、6Gネットワークの進化において重要な役割を果たすことが期待されている。
我々は、LLMのリアルタイム最適化アルゴリズムをTrustworthy AIに組み合わせた新しいエージェントパラダイムを導入する。
本稿では,AGIネットワークのエンドツーエンドアーキテクチャを提案し,移動車からのチャネル変動をキャプチャする5Gテストベッド上で評価する。
論文 参考訳(メタデータ) (2025-07-23T17:01:23Z) - RALLY: Role-Adaptive LLM-Driven Yoked Navigation for Agentic UAV Swarms [17.931091064654904]
役割適応型LCM駆動ヨードナビゲーションアルゴリズムをアラリカルに開発する。
RALLYは構造化自然言語を用いて効率的な意味コミュニケーションと協調推論を行う。
実験の結果, タスクカバレッジ, 収束速度, 一般化の点で, 従来手法よりも有意な性能を示した。
論文 参考訳(メタデータ) (2025-07-02T05:44:17Z) - Prompt-Tuned LLM-Augmented DRL for Dynamic O-RAN Network Slicing [5.62872273155603]
大規模言語モデル(LLM)は、無秩序なネットワークフィードバックを意味のある潜在表現に構造化する。
O-RANスライシングでは、SNR、パワーレベル、スループットといった概念が意味的に関連している。
学習可能なプロンプトをLLM拡張DRLフレームワークに統合した文脈化に基づく適応手法を提案する。
論文 参考訳(メタデータ) (2025-05-31T14:12:56Z) - Collab: Controlled Decoding using Mixture of Agents for LLM Alignment [90.6117569025754]
人間のフィードバックからの強化学習は、大規模言語モデルを整合させる効果的な手法として現れてきた。
制御された復号化は、再訓練せずに推論時にモデルを整列するメカニズムを提供する。
本稿では,既存の既成のLCMポリシを活用するエージェントベースのデコーディング戦略の混合を提案する。
論文 参考訳(メタデータ) (2025-03-27T17:34:25Z) - An Autonomous Network Orchestration Framework Integrating Large Language Models with Continual Reinforcement Learning [13.3347292702828]
本稿では,SemCom対応SAGINのためのARC(Autonomous Reinforcement Coordination)というフレームワークを提案する。
ARCはオーケストレーションを2層に分割し、LLMを高レベルの計画に、RLエージェントを低レベルの意思決定に利用している。
論文 参考訳(メタデータ) (2025-02-22T11:53:34Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。