論文の概要: Deploying Foundation Model Powered Agent Services: A Survey
- arxiv url: http://arxiv.org/abs/2412.13437v1
- Date: Wed, 18 Dec 2024 02:15:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 13:23:27.411396
- Title: Deploying Foundation Model Powered Agent Services: A Survey
- Title(参考訳): ファウンデーションモデル パワードエージェントサービスの展開: サーベイ
- Authors: Wenchao Xu, Jinyu Chen, Peirong Zheng, Xiaoquan Yi, Tianyi Tian, Wenhui Zhu, Quan Wan, Haozhao Wang, Yunfeng Fan, Qinliang Su, Xuemin Shen,
- Abstract要約: ファンデーションモデル(FM)を利用したエージェントサービスは、インテリジェントでパーソナライズされたアプリケーションを開発するための有望なソリューションと見なされている。
本稿では、FMベースのエージェントサービスを異種デバイスに展開するための総合的な調査を行うための統合フレームワークを提案する。
- 参考スコア(独自算出の注目度): 33.27330704880908
- License:
- Abstract: Foundation model (FM) powered agent services are regarded as a promising solution to develop intelligent and personalized applications for advancing toward Artificial General Intelligence (AGI). To achieve high reliability and scalability in deploying these agent services, it is essential to collaboratively optimize computational and communication resources, thereby ensuring effective resource allocation and seamless service delivery. In pursuit of this vision, this paper proposes a unified framework aimed at providing a comprehensive survey on deploying FM-based agent services across heterogeneous devices, with the emphasis on the integration of model and resource optimization to establish a robust infrastructure for these services. Particularly, this paper begins with exploring various low-level optimization strategies during inference and studies approaches that enhance system scalability, such as parallelism techniques and resource scaling methods. The paper then discusses several prominent FMs and investigates research efforts focused on inference acceleration, including techniques such as model compression and token reduction. Moreover, the paper also investigates critical components for constructing agent services and highlights notable intelligent applications. Finally, the paper presents potential research directions for developing real-time agent services with high Quality of Service (QoS).
- Abstract(参考訳): ファンデーションモデル(FM)を利用したエージェントサービスは、人工知能(AGI)に向けたインテリジェントでパーソナライズされたアプリケーションを開発するための有望なソリューションと見なされている。
これらのエージェントサービスをデプロイする際の信頼性とスケーラビリティを達成するためには、協調的に計算資源と通信資源を最適化し、効率的なリソース割り当てとシームレスなサービス配信を保証することが不可欠である。
このビジョンを追求するため,本研究では,FMベースのエージェントサービスを異種デバイスに展開するための総合的な調査を行うための統一的なフレームワークを提案し,これらのサービスのための堅牢な基盤を確立するためのモデルとリソース最適化の統合に焦点を当てた。
特に,並列化手法や資源スケーリング手法など,システムのスケーラビリティを高めるための様々な低レベル最適化手法を推論中に検討することから始める。
そこで本論文では,いくつかの顕著なFMについて論じ,モデル圧縮やトークン還元といった手法を含む,推論加速に焦点を当てた研究成果について考察する。
さらに,エージェントサービス構築のための重要なコンポーネントについても検討し,注目すべきインテリジェントアプリケーションを強調した。
最後に,QoS(Quality of Service)を用いたリアルタイムエージェントサービスを開発するための潜在的研究の方向性を示す。
関連論文リスト
- MediaMind: Revolutionizing Media Monitoring using Agentification [4.997673761305336]
本稿では, エージェント化プロセスの実証を目的としたケーススタディとしてMediaMindを紹介する。
本稿では,MediaMindのプロファイリングの背景にある技術方法論と原則に焦点をあてる。
論文 参考訳(メタデータ) (2025-02-18T11:05:38Z) - A Survey on Inference Optimization Techniques for Mixture of Experts Models [50.40325411764262]
大規模Mixture of Experts(MoE)モデルは、条件計算によるモデル容量と計算効率の向上を提供する。
これらのモデル上で推論をデプロイし実行することは、計算資源、レイテンシ、エネルギー効率において大きな課題を示す。
本調査では,システムスタック全体にわたるMoEモデルの最適化手法について分析する。
論文 参考訳(メタデータ) (2024-12-18T14:11:15Z) - Agentic AI-Driven Technical Troubleshooting for Enterprise Systems: A Novel Weighted Retrieval-Augmented Generation Paradigm [0.0]
本稿では,企業の技術的トラブルシューティングに適したRAG(Weighted Retrieval-Augmented Generation)フレームワーク上に構築されたエージェントAIソリューションを提案する。
製品マニュアル、内部知識ベース、FAQ、トラブルシューティングガイドなどの検索ソースを動的に重み付けすることで、最も関連性の高いデータを優先順位付けする。
大規模エンタープライズデータセットに関する予備評価では、トラブルシューティングの精度を改善し、解決時間を短縮し、さまざまな技術的課題に適応する上で、フレームワークの有効性が示されている。
論文 参考訳(メタデータ) (2024-12-16T17:32:38Z) - Joint Resource Optimization, Computation Offloading and Resource Slicing for Multi-Edge Traffic-Cognitive Networks [0.0]
本稿では,プラットフォームとESの両方が自己関心を持つエンティティであるマルチエージェントシステムについて検討する。
そこで我々は,利害関係者間の相互作用をモデル化し,最適化問題を解くための新しいゲームベースフレームワークStackelbergを提案する。
さらに、ニューラルネットワーク最適化とプライバシ保護情報交換プロトコルを活用した分散ソリューションを設計する。
論文 参考訳(メタデータ) (2024-11-26T11:51:10Z) - From Novice to Expert: LLM Agent Policy Optimization via Step-wise Reinforcement Learning [62.54484062185869]
本稿では,エージェントの強化学習プロセスの最適化にステップワイド報酬を利用するStepAgentを紹介する。
エージェント反射とポリシー調整を容易にする暗黙の逆・逆の強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T10:35:11Z) - Large Language Model as a Catalyst: A Paradigm Shift in Base Station Siting Optimization [62.16747639440893]
大規模言語モデル(LLM)とその関連技術は、特に迅速な工学とエージェント工学の領域において進歩している。
提案するフレームワークは、検索拡張生成(RAG)を組み込んで、ドメイン固有の知識を取得してソリューションを生成するシステムの能力を高める。
論文 参考訳(メタデータ) (2024-08-07T08:43:32Z) - Dynamic Resource Allocation for Metaverse Applications with Deep
Reinforcement Learning [64.75603723249837]
そこで本研究では,Metaverse アプリケーション用の異なるタイプのリソースを動的に管理・割り当てする新しいフレームワークを提案する。
まず,アプリケーション間で共通関数を共有できるMetaInstancesという,アプリケーションをグループに分割する効果的なソリューションを提案する。
そこで我々は,要求到着プロセスとアプリケーション離脱プロセスのリアルタイム,動的,不確実な特性を捉えるために,セミマルコフ決定プロセスに基づくフレームワークを開発する。
論文 参考訳(メタデータ) (2023-02-27T00:30:01Z) - Evaluation of a blockchain-enabled resource management mechanism for
NGNs [0.0]
本稿では,ネットワークプロバイダ間の資源管理と交渉におけるブロックチェーン技術の利用について検討する。
リソース管理機構の実装はスマートコントラクト(SC)で記述され、テストベッドはそれぞれRaftとIBFTのコンセンサス機構を使用している。
論文 参考訳(メタデータ) (2022-11-01T13:40:26Z) - Dif-MAML: Decentralized Multi-Agent Meta-Learning [54.39661018886268]
我々は,MAML や Dif-MAML と呼ばれる協調型マルチエージェントメタ学習アルゴリズムを提案する。
提案手法により, エージェントの集合が線形速度で合意に達し, 集約MAMLの定常点に収束できることを示す。
シミュレーションの結果は従来の非協調的な環境と比較して理論的な結果と優れた性能を示している。
論文 参考訳(メタデータ) (2020-10-06T16:51:09Z) - Deep Reinforcement Learning for QoS-Constrained Resource Allocation in
Multiservice Networks [0.3324986723090368]
本稿では、マルチサービス無線システムにおける満足度保証に対するスペクトル効率の最大化を主な目的とする非最適化問題に焦点をあてる。
本稿では,Reinforcement Learning (RL) フレームワークに基づくソリューションを提案し,各エージェントがローカル環境とのインタラクションによってポリシーを見つける決定を行う。
スループットと停止率の観点から、後者のほぼ最適性能を示す。
論文 参考訳(メタデータ) (2020-03-03T19:32:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。