論文の概要: When Large Language Model Agents Meet 6G Networks: Perception,
Grounding, and Alignment
- arxiv url: http://arxiv.org/abs/2401.07764v2
- Date: Fri, 16 Feb 2024 19:15:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 03:45:44.904377
- Title: When Large Language Model Agents Meet 6G Networks: Perception,
Grounding, and Alignment
- Title(参考訳): 大規模言語モデルエージェントが6gネットワークに出会うとき:知覚、接地、アライメント
- Authors: Minrui Xu, Dusit Niyato, Jiawen Kang, Zehui Xiong, Shiwen Mao, Zhu
Han, Dong In Kim, and Khaled B. Letaief
- Abstract要約: モバイル端末とエッジサーバの協調を利用した6GネットワークにおけるAIエージェントの分割学習システムを提案する。
提案システムでは,LLMのための新しいモデルキャッシングアルゴリズムを導入し,コンテキストにおけるモデル利用を改善する。
- 参考スコア(独自算出の注目度): 100.58938424441027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI agents based on multimodal large language models (LLMs) are expected to
revolutionize human-computer interaction and offer more personalized assistant
services across various domains like healthcare, education, manufacturing, and
entertainment. Deploying LLM agents in 6G networks enables users to access
previously expensive AI assistant services via mobile devices democratically,
thereby reducing interaction latency and better preserving user privacy.
Nevertheless, the limited capacity of mobile devices constrains the
effectiveness of deploying and executing local LLMs, which necessitates
offloading complex tasks to global LLMs running on edge servers during
long-horizon interactions. In this article, we propose a split learning system
for LLM agents in 6G networks leveraging the collaboration between mobile
devices and edge servers, where multiple LLMs with different roles are
distributed across mobile devices and edge servers to perform user-agent
interactive tasks collaboratively. In the proposed system, LLM agents are split
into perception, grounding, and alignment modules, facilitating inter-module
communications to meet extended user requirements on 6G network functions,
including integrated sensing and communication, digital twins, and
task-oriented communications. Furthermore, we introduce a novel model caching
algorithm for LLMs within the proposed system to improve model utilization in
context, thus reducing network costs of the collaborative mobile and edge LLM
agents.
- Abstract(参考訳): マルチモーダルな大規模言語モデル(LLM)に基づくAIエージェントは、人間とコンピュータのインタラクションに革命をもたらし、医療、教育、製造、エンターテイメントといったさまざまな領域でよりパーソナライズされたアシスタントサービスを提供すると期待されている。
6GネットワークにLLMエージェントをデプロイすることで、ユーザはモバイルデバイスを介して、これまで高価なAIアシスタントサービスにアクセスできるようになる。
それにもかかわらず、モバイルデバイスの限られた能力は、長期にわたる相互作用の間、エッジサーバ上で動作するグローバルなLLMに複雑なタスクをオフロードする必要があるローカルLLMのデプロイと実行の効率を制限している。
本稿では,モバイルデバイスとエッジサーバの協調を利用した6gネットワークにおけるllmエージェントのための分割学習システムを提案する。
提案システムでは,LLMエージェントを知覚,接地,アライメントモジュールに分割し,モジュール間通信により,統合型センシング・通信,デジタルツイン,タスク指向通信など,6Gネットワーク機能上の拡張ユーザ要求を満たす。
さらに,提案システム内のllmのための新しいモデルキャッシングアルゴリズムを導入し,コンテキスト内のモデル利用性を改善し,協調型モバイルおよびエッジ型llmエージェントのネットワークコストを削減する。
関連論文リスト
- AgentScope: A Flexible yet Robust Multi-Agent Platform [66.61478569048477]
AgentScopeは、メッセージ交換をコアコミュニケーションメカニズムとする、開発者中心のマルチエージェントプラットフォームである。
堅牢で柔軟なマルチエージェントアプリケーションを目指して、AgentScopeはビルトインとカスタマイズ可能なフォールトトレランスメカニズムを提供する。
論文 参考訳(メタデータ) (2024-02-21T04:11:28Z) - SpeechAgents: Human-Communication Simulation with Multi-Modal
Multi-Agent Systems [53.94772445896213]
大規模言語モデル(LLM)に基づくマルチエージェントシステムは,人間の社会をシミュレートする上で有望な性能を示した。
本研究では,マルチモーダルLLMに基づくマルチエージェントシステムであるSpeechAgentsを提案する。
論文 参考訳(メタデータ) (2024-01-08T15:01:08Z) - LLMind: Orchestrating AI and IoT with LLM for Complex Task Execution [20.186752447895994]
複雑なタスクを実行するためのIoTデバイス間で効果的なコラボレーションを可能にするAIエージェントフレームワークであるLLMindを提案する。
脳の機能的特殊化理論に触発されて、我々のフレームワークはLLMをドメイン固有のAIモジュールと統合し、その能力を高める。
論文 参考訳(メタデータ) (2023-12-14T14:57:58Z) - Large Language Model Enhanced Multi-Agent Systems for 6G Communications [94.45712802626794]
本稿では,自然言語を用いたコミュニケーション関連タスクを解くための,カスタマイズされたコミュニケーション知識とツールを備えたマルチエージェントシステムを提案する。
セマンティック通信システムの設計により,提案方式の有効性を検証した。
論文 参考訳(メタデータ) (2023-12-13T02:35:57Z) - Dynamic LLM-Agent Network: An LLM-agent Collaboration Framework with
Agent Team Optimization [59.39113350538332]
大規模言語モデル(LLM)エージェントは幅広いタスクで有効であることが示されており、複数のLLMエージェントを組み込むことで、その性能をさらに向上することができる。
既存のアプローチでは、固定されたエージェントセットを使用して静的アーキテクチャで相互に相互作用する。
我々は、推論やコード生成といった複雑なタスクにおいて、LLM-agentコラボレーションのためにDynamic LLM-Agent Network(textbfDyLAN$)というフレームワークを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:05:48Z) - Pushing Large Language Models to the 6G Edge: Vision, Challenges, and
Opportunities [32.035405009895264]
大規模言語モデル(LLM)はAI開発に革命をもたらし、私たちの未来を形作る可能性がある。
1) 長時間の応答時間、2) 帯域幅のコスト、3) データプライバシの侵害。
6Gモバイルエッジコンピューティング(MEC)システムは、これらのプレス問題を解決できるかもしれない。
本稿は,6GエッジにおけるLCMのモチベーション,課題,経路を徹底的に特定するためのポジションペーパーとして機能する。
論文 参考訳(メタデータ) (2023-09-28T06:22:59Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。