論文の概要: AURA: Adaptive Unified Reasoning and Automation with LLM-Guided MARL for NextG Cellular Networks
- arxiv url: http://arxiv.org/abs/2511.17506v1
- Date: Thu, 02 Oct 2025 22:43:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.228067
- Title: AURA: Adaptive Unified Reasoning and Automation with LLM-Guided MARL for NextG Cellular Networks
- Title(参考訳): AURA:次世代セルラーネットワークのためのLLM誘導MARLによる適応統一推論と自動化
- Authors: Narjes Nourzad, Mingyu Zong, Bhaskar Krishnamachari,
- Abstract要約: 次世代(NextG)セルネットワークは,高性能を保ちながら動的トラフィックを管理することが期待されている。
LLMは6G計画のための戦略的推論を提供するが、計算コストと遅延はリアルタイムの使用を制限する。
AURAは、クラウドベースのLCMを高レベルプランニングのためのフレームワークであり、MARLエージェントをモデルとしたローカル意思決定のためのベースステーションである。
- 参考スコア(独自算出の注目度): 5.20555845228727
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Next-generation (NextG) cellular networks are expected to manage dynamic traffic while sustaining high performance. Large language models (LLMs) provide strategic reasoning for 6G planning, but their computational cost and latency limit real-time use. Multi-agent reinforcement learning (MARL) supports localized adaptation, yet coordination at scale remains challenging. We present AURA, a framework that integrates cloud-based LLMs for high-level planning with base stations modeled as MARL agents for local decision-making. The LLM generates objectives and subgoals from its understanding of the environment and reasoning capabilities, while agents at base stations execute these objectives autonomously, guided by a trust mechanism that balances local learning with external input. To reduce latency, AURA employs batched communication so that agents update the LLM's view of the environment and receive improved feedback. In a simulated 6G scenario, AURA improves resilience, reducing dropped handoff requests by more than half under normal and high traffic and lowering system failures. Agents use LLM input in fewer than 60\% of cases, showing that guidance augments rather than replaces local adaptability, thereby mitigating latency and hallucination risks. These results highlight the promise of combining LLM reasoning with MARL adaptability for scalable, real-time NextG network management.
- Abstract(参考訳): 次世代(NextG)セルネットワークは,高性能を保ちながら動的トラフィックを管理することが期待されている。
大規模言語モデル(LLM)は6G計画のための戦略的推論を提供するが、計算コストと遅延はリアルタイムの使用を制限する。
マルチエージェント強化学習(MARL)は局所的な適応をサポートするが,大規模な調整は依然として困難である。
AURAは、クラウドベースのLCMを高レベルプランニングのためのフレームワークであり、MARLエージェントをモデルとしたローカル意思決定のためのベースステーションである。
LLMは、環境と推論能力の理解から目標とサブゴールを生成し、基地局のエージェントは、ローカル学習と外部入力のバランスをとる信頼メカニズムによって、これらの目標を自律的に実行する。
レイテンシを低減するため、AURAはバッチ通信を使用して、エージェントが環境のLCMのビューを更新し、改善されたフィードバックを受け取る。
シミュレーションされた6Gシナリオでは、AURAはレジリエンスを改善し、通常および高トラフィック下でハンドオフ要求を半分以上削減し、システム障害を低減している。
エージェントは60 %未満のケースで LLM 入力を使用し、ガイダンスは局所的な適応性を置き換えるよりも強化され、遅延や幻覚のリスクを軽減している。
これらの結果は、スケーラブルでリアルタイムなNextGネットワーク管理のためのLLM推論とMARL適応性を組み合わせるという約束を強調している。
関連論文リスト
- LLM-Empowered Agentic MAC Protocols: A Dynamic Stackelberg Game Approach [13.272022414257224]
ゲーム理論のLLMを用いたマルチエージェントDRL(MARL)フレームワークを提案する。
基地局と各種ユーザ機器間のアップリンク伝送は、動的マルチフォローラー・スタックルバーグゲーム(MFSG)としてモデル化される。
このゲームの中で、LLM駆動エージェントは、近似ポリシー最適化(PPO)を通じて調整され、適応的セマンティックMACプロトコルを合成する。
論文 参考訳(メタデータ) (2025-10-13T01:47:24Z) - Quality-of-Service Aware LLM Routing for Edge Computing with Multiple Experts [18.479200918676575]
大きな言語モデル(LLM)は目覚ましい機能を示しており、LLMサービスのユーザ需要が大幅に増加した。
しかしながら、クラウドベースのLLMサービスは、高いレイテンシ、不安定な応答性、プライバシの懸念に悩まされることが多い。
本稿では,持続的高品質LLMサービスのための深層強化学習に基づくルーティングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-01T00:45:15Z) - Symbiotic Agents: A Novel Paradigm for Trustworthy AGI-driven Networks [1.5684305805304426]
大規模言語モデル(LLM)に基づく自律エージェントは、6Gネットワークの進化において重要な役割を果たすことが期待されている。
我々は、LLMのリアルタイム最適化アルゴリズムをTrustworthy AIに組み合わせた新しいエージェントパラダイムを導入する。
本稿では,AGIネットワークのエンドツーエンドアーキテクチャを提案し,移動車からのチャネル変動をキャプチャする5Gテストベッド上で評価する。
論文 参考訳(メタデータ) (2025-07-23T17:01:23Z) - Federated Learning-Enabled Hybrid Language Models for Communication-Efficient Token Transmission [87.68447072141402]
ハイブリッド言語モデル(HLM)は、エッジデバイス上でのSLM(Small Language Model)の低レイテンシ効率と、集中型サーバ上でのLLM(Large Language Model)の高精度を組み合わせたものである。
我々は、不確実性を考慮した推論とフェデレートラーニング(FL)を統合する通信効率の高いHLMフレームワークであるFedHLMを提案する。
論文 参考訳(メタデータ) (2025-06-30T02:56:11Z) - Benchmarking LLMs' Swarm intelligence [51.648605206159125]
大規模言語モデル(LLM)は複雑な推論の可能性を秘めているが、マルチエージェントシステム(MAS)における創発的協調の能力はほとんど探索されていない。
分散エージェントとして機能するLDMのタスクを体系的に評価する新しいベンチマークであるSwarmBenchを紹介する。
本稿では,協調効率の指標を提案し,創発的グループダイナミクスを解析する。
論文 参考訳(メタデータ) (2025-05-07T12:32:01Z) - Navigating Motion Agents in Dynamic and Cluttered Environments through LLM Reasoning [69.5875073447454]
本稿では,大規模言語モデル(LLM)によって強化された動作エージェントを,動的・乱雑な環境における自律的なナビゲーションに向けて前進させる。
トレーニング不要なフレームワークは、マルチエージェント調整、クローズドループ計画、動的障害物回避を、リトレーニングや微調整なしでサポートしています。
論文 参考訳(メタデータ) (2025-03-10T13:39:09Z) - When Large Language Model Agents Meet 6G Networks: Perception,
Grounding, and Alignment [100.58938424441027]
モバイル端末とエッジサーバの協調を利用した6GネットワークにおけるAIエージェントの分割学習システムを提案する。
提案システムでは,LLMのための新しいモデルキャッシングアルゴリズムを導入し,コンテキストにおけるモデル利用を改善する。
論文 参考訳(メタデータ) (2024-01-15T15:20:59Z) - AgentBench: Evaluating LLMs as Agents [99.12825098528212]
エージェントとしてのLarge Language Model (LLM)は近年広く認知されている。
我々は,LLM-as-Agentの推論と意思決定能力を評価するために,8つの異なる環境からなるベンチマークであるAgentBenchを提案する。
論文 参考訳(メタデータ) (2023-08-07T16:08:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。