論文の概要: Tele-LLM-Hub: Building Context-Aware Multi-Agent LLM Systems for Telecom Networks
- arxiv url: http://arxiv.org/abs/2511.09087v2
- Date: Tue, 18 Nov 2025 02:03:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 13:59:16.498559
- Title: Tele-LLM-Hub: Building Context-Aware Multi-Agent LLM Systems for Telecom Networks
- Title(参考訳): Tele-LLM-Hub:通信ネットワークのためのコンテキスト対応マルチエージェントLLMシステムの構築
- Authors: Pranshav Gajjar, Cong Shen, Vijay K Shah,
- Abstract要約: 本稿では,ユーザフレンドリーなローコードソリューションであるTele-LLM-Hubを紹介する。
Tele-LLM-Hubの目標は、コンテキスト対応MAシステムの設計を民主化し、次世代無線ネットワークにおけるイノベーションを加速することである。
- 参考スコア(独自算出の注目度): 10.483532646584408
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces Tele-LLM-Hub, a user friendly low-code solution for rapid prototyping and deployment of context aware multi-agent (MA) Large Language Model (LLM) systems tailored for 5G and beyond. As telecom wireless networks become increasingly complex, intelligent LLM applications must share a domainspecific understanding of network state. We propose TeleMCP, the Telecom Model Context Protocol, to enable structured and context-rich communication between agents in telecom environments. Tele-LLM-Hub actualizes TeleMCP through a low-code interface that supports agent creation, workflow composition, and interaction with software stacks such as srsRAN. Key components include a direct chat interface, a repository of pre-built systems, an Agent Maker leveraging finetuning with our RANSTRUCT framework, and an MA-Maker for composing MA workflows. The goal of Tele-LLM-Hub is to democratize the design of contextaware MA systems and accelerate innovation in next-generation wireless networks.
- Abstract(参考訳): 本稿では, ユーザフレンドリーなプロトタイピングと文脈認識型マルチエージェント(MA) 大規模言語モデル(LLM)システムのデプロイのためのローコードソリューションであるTele-LLM-Hubを紹介する。
通信無線ネットワークが複雑化するにつれ、知的LLMアプリケーションはネットワーク状態のドメイン固有の理解を共有する必要がある。
本稿では,テレコム環境におけるエージェント間の構造化およびコンテキストリッチな通信を可能にするテレコムモデルコンテキストプロトコルであるTeleMCPを提案する。
Tele-LLM-Hubは、エージェント生成、ワークフロー構成、srsRANのようなソフトウェアスタックとのインタラクションをサポートするローコードインターフェースを通じてTeleMCPを実現する。
主なコンポーネントは、直接チャットインターフェース、ビルド済みシステムのリポジトリ、RANSTRUCTフレームワークとの微調整を活用するAgent Maker、MAワークフローを構成するためのMA-Makerである。
Tele-LLM-Hubの目標は、コンテキスト対応MAシステムの設計を民主化し、次世代無線ネットワークにおけるイノベーションを加速することである。
関連論文リスト
- AgentHub: A Research Agenda for Agent Sharing Infrastructure [6.191340541042416]
LLMベースのエージェントは急速に増殖しているが、発見、評価、管理のインフラは断片化されている。
最近の研究と工学の研究は、必要なインフラについて検討し始めているが、今のところは、分散、命名、プロトコル交渉に焦点を絞っている。
本稿ではエージェント共有のための研究課題であるエージェントHubを提案する。
論文 参考訳(メタデータ) (2025-10-03T20:18:58Z) - Code2MCP: Transforming Code Repositories into MCP Services [53.234097255779744]
Model Context Protocol (MCP)は、大規模言語モデルがどのようにツールを使用するかの標準を作成することを目的としている。
私たちは、GitHubリポジトリを機能的なMSPサービスに自動的に変換するエージェントベースのフレームワークであるCode2MCPを紹介します。
Code2MCPはバイオインフォマティクス、数学、流体力学などの科学分野におけるオープンソースの計算ライブラリの変換に成功している。
論文 参考訳(メタデータ) (2025-09-07T06:13:25Z) - ROS-LLM: A ROS framework for embodied AI with task feedback and structured reasoning [74.58666091522198]
非専門家による直感的なロボットプログラミングのためのフレームワークを提案する。
ロボットオペレーティングシステム(ROS)からの自然言語のプロンプトと文脈情報を活用する
我々のシステムは,大規模言語モデル (LLM) を統合し,非専門家がチャットインタフェースを通じてシステムにタスク要求を記述できるようにする。
論文 参考訳(メタデータ) (2024-06-28T08:28:38Z) - Large Language Models meet Network Slicing Management and Orchestration [0.3644165342767221]
本稿では,Large Language Models (LLM) とマルチエージェントシステムを利用したネットワークスライシングの今後の展望を提案する。
このフレームワークの実装に伴う課題と、それを緩和する潜在的なソリューションについて議論する。
論文 参考訳(メタデータ) (2024-03-20T16:29:52Z) - When Large Language Model Agents Meet 6G Networks: Perception,
Grounding, and Alignment [100.58938424441027]
モバイル端末とエッジサーバの協調を利用した6GネットワークにおけるAIエージェントの分割学習システムを提案する。
提案システムでは,LLMのための新しいモデルキャッシングアルゴリズムを導入し,コンテキストにおけるモデル利用を改善する。
論文 参考訳(メタデータ) (2024-01-15T15:20:59Z) - Opportunities of Federated Learning in Connected, Cooperative and
Automated Industrial Systems [44.627847349764664]
次世代産業システムは、超信頼性、低遅延通信の進歩を牽引しています。
分散機械学習(FL)は、センシング、コミュニケーション、学習におけるキノコの多分野にわたる研究領域を表しています。
本稿では,次世代ネットワーク産業システムにおけるFLの新たな可能性について考察する。
論文 参考訳(メタデータ) (2021-01-09T14:27:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。