論文の概要: When Large Language Model Agents Meet 6G Networks: Perception,
Grounding, and Alignment
- arxiv url: http://arxiv.org/abs/2401.07764v1
- Date: Mon, 15 Jan 2024 15:20:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 16:49:11.087275
- Title: When Large Language Model Agents Meet 6G Networks: Perception,
Grounding, and Alignment
- Title(参考訳): 大規模言語モデルエージェントが6gネットワークに出会うとき:知覚、接地、アライメント
- Authors: Minrui Xu, Niyato Dusit, Jiawen Kang, Zehui Xiong, Shiwen Mao, Zhu
Han, Dong In Kim, and Khaled B. Letaief
- Abstract要約: モバイル端末とエッジサーバの協調を利用した6GネットワークにおけるAIエージェントの分割学習システムを提案する。
提案システムでは,LLMのための新しいモデルキャッシングアルゴリズムを導入し,コンテキストにおけるモデル利用を改善する。
- 参考スコア(独自算出の注目度): 64.45276482393548
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI agents based on multimodal large language models (LLMs) are expected to
revolutionize human-computer interaction and offer more personalized assistant
services across various domains like healthcare, education, manufacturing, and
entertainment. Deploying LLM agents in 6G networks enables users to access
previously expensive AI assistant services via mobile devices democratically,
thereby reducing interaction latency and better preserving user privacy.
Nevertheless, the limited capacity of mobile devices constrains the
effectiveness of deploying and executing local LLMs, which necessitates
offloading complex tasks to global LLMs running on edge servers during
long-horizon interactions. In this article, we propose a split learning system
for LLM agents in 6G networks leveraging the collaboration between mobile
devices and edge servers, where multiple LLMs with different roles are
distributed across mobile devices and edge servers to perform user-agent
interactive tasks collaboratively. In the proposed system, LLM agents are split
into perception, grounding, and alignment modules, facilitating inter-module
communications to meet extended user requirements on 6G network functions,
including integrated sensing and communication, digital twins, and
task-oriented communications. Furthermore, we introduce a novel model caching
algorithm for LLMs within the proposed system to improve model utilization in
context, thus reducing network costs of the collaborative mobile and edge LLM
agents.
- Abstract(参考訳): マルチモーダルな大規模言語モデル(LLM)に基づくAIエージェントは、人間とコンピュータのインタラクションに革命をもたらし、医療、教育、製造、エンターテイメントといったさまざまな領域でよりパーソナライズされたアシスタントサービスを提供すると期待されている。
6GネットワークにLLMエージェントをデプロイすることで、ユーザはモバイルデバイスを介して、これまで高価なAIアシスタントサービスにアクセスできるようになる。
それにもかかわらず、モバイルデバイスの限られた能力は、長期にわたる相互作用の間、エッジサーバ上で動作するグローバルなLLMに複雑なタスクをオフロードする必要があるローカルLLMのデプロイと実行の効率を制限している。
本稿では,モバイルデバイスとエッジサーバの協調を利用した6gネットワークにおけるllmエージェントのための分割学習システムを提案する。
提案システムでは,LLMエージェントを知覚,接地,アライメントモジュールに分割し,モジュール間通信により,統合型センシング・通信,デジタルツイン,タスク指向通信など,6Gネットワーク機能上の拡張ユーザ要求を満たす。
さらに,提案システム内のllmのための新しいモデルキャッシングアルゴリズムを導入し,コンテキスト内のモデル利用性を改善し,協調型モバイルおよびエッジ型llmエージェントのネットワークコストを削減する。
関連論文リスト
- CAMPHOR: Collaborative Agents for Multi-input Planning and High-Order Reasoning On Device [2.4100803794273005]
本稿では、複数のユーザ入力を処理し、個人的コンテキストを局所的に理性的に扱うように設計された、オンデバイス・スモールランゲージ・モデル(SLM)フレームワークを提案する。
CAMPHORは階層的アーキテクチャを採用しており、高階推論エージェントは複雑なタスクを分解し、個人のコンテキスト検索、ツールインタラクション、動的プラン生成に責任を持つ専門家エージェントを調整する。
エージェント間でパラメータ共有を実装し、即時圧縮を活用することにより、モデルサイズ、レイテンシ、メモリ使用量を大幅に削減する。
論文 参考訳(メタデータ) (2024-10-12T07:28:10Z) - Large Language Models for Base Station Siting: Intelligent Deployment based on Prompt or Agent [62.16747639440893]
大規模言語モデル(LLM)とその関連技術は、特に迅速な工学とエージェント工学の領域において進歩している。
このアプローチは、人間の経験と知識をこれらの洗練されたLLMに注入するために、巧妙なプロンプトの戦略的利用を必要とする。
この統合は、サービスとしての人工知能(AI)と、より容易なAIの将来のパラダイムを表している。
論文 参考訳(メタデータ) (2024-08-07T08:43:32Z) - Mobile Edge Intelligence for Large Language Models: A Contemporary Survey [32.22789677882933]
モバイルエッジインテリジェンス(MEI)は、クラウドコンピューティングに対するプライバシとレイテンシを改善した、モバイルネットワークのエッジ内のAI機能を提供する。
MEIはデバイス上のAIとクラウドベースのAIの間に位置し、無線通信とエンドユーザよりも強力なコンピューティングリソースを備えている。
本稿では,LLMのMEI活用に関する現代の調査を紹介する。
論文 参考訳(メタデータ) (2024-07-09T13:47:05Z) - Large Language Models (LLMs) Assisted Wireless Network Deployment in Urban Settings [0.21847754147782888]
大きな言語モデル(LLM)は、言語理解と人間に似たテキスト生成に革命をもたらした。
本稿では,6G(第6世代)無線通信技術におけるLCMの電力利用技術について検討する。
無線通信におけるネットワーク展開にLLMを利用する新しい強化学習(RL)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-22T05:19:51Z) - WDMoE: Wireless Distributed Large Language Models with Mixture of Experts [65.57581050707738]
我々は,Mixture of Experts (MoE)に基づく無線分散大言語モデル(LLM)パラダイムを提案する。
我々は,基地局(BS)とモバイルデバイスにゲーティングネットワークと先行するニューラルネットワーク層を配置することにより,LLM内のMoE層を分解する。
我々は、モデルの性能とエンドツーエンドのレイテンシの両方を考慮して、専門家の選択ポリシーを設計する。
論文 参考訳(メタデータ) (2024-05-06T02:55:50Z) - AgentScope: A Flexible yet Robust Multi-Agent Platform [66.64116117163755]
AgentScopeは、メッセージ交換をコアコミュニケーションメカニズムとする、開発者中心のマルチエージェントプラットフォームである。
豊富な構文ツール、組み込みエージェントとサービス機能、アプリケーションのデモとユーティリティモニタのためのユーザフレンドリなインターフェース、ゼロコードプログラミングワークステーション、自動プロンプトチューニング機構により、開発とデプロイメントの両方の障壁は大幅に低下した。
論文 参考訳(メタデータ) (2024-02-21T04:11:28Z) - Large Language Model Enhanced Multi-Agent Systems for 6G Communications [94.45712802626794]
本稿では,自然言語を用いたコミュニケーション関連タスクを解くための,カスタマイズされたコミュニケーション知識とツールを備えたマルチエージェントシステムを提案する。
セマンティック通信システムの設計により,提案方式の有効性を検証した。
論文 参考訳(メタデータ) (2023-12-13T02:35:57Z) - Pushing Large Language Models to the 6G Edge: Vision, Challenges, and
Opportunities [32.035405009895264]
大規模言語モデル(LLM)はAI開発に革命をもたらし、私たちの未来を形作る可能性がある。
1) 長時間の応答時間、2) 帯域幅のコスト、3) データプライバシの侵害。
6Gモバイルエッジコンピューティング(MEC)システムは、これらのプレス問題を解決できるかもしれない。
本稿は,6GエッジにおけるLCMのモチベーション,課題,経路を徹底的に特定するためのポジションペーパーとして機能する。
論文 参考訳(メタデータ) (2023-09-28T06:22:59Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。