論文の概要: Investigate-Consolidate-Exploit: A General Strategy for Inter-Task Agent
Self-Evolution
- arxiv url: http://arxiv.org/abs/2401.13996v1
- Date: Thu, 25 Jan 2024 07:47:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-26 15:20:32.001646
- Title: Investigate-Consolidate-Exploit: A General Strategy for Inter-Task Agent
Self-Evolution
- Title(参考訳): Investigate-Consolidate-Exploit: タスク間エージェントの自己進化のための一般的な戦略
- Authors: Cheng Qian, Shihao Liang, Yujia Qin, Yining Ye, Xin Cong, Yankai Lin,
Yesai Wu, Zhiyuan Liu, Maosong Sun
- Abstract要約: Investigate-Consolidate-Exploit(ICE)は、AIエージェントの適応性と柔軟性を高めるための新しい戦略である。
ICEは、真の自己進化のためのタスク間の知識の伝達を促進する。
XAgentフレームワークに関する我々の実験は、ICEの有効性を示し、API呼び出しを最大80%削減する。
- 参考スコア(独自算出の注目度): 92.84441068115517
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces Investigate-Consolidate-Exploit (ICE), a novel strategy
for enhancing the adaptability and flexibility of AI agents through inter-task
self-evolution. Unlike existing methods focused on intra-task learning, ICE
promotes the transfer of knowledge between tasks for genuine self-evolution,
similar to human experience learning. The strategy dynamically investigates
planning and execution trajectories, consolidates them into simplified
workflows and pipelines, and exploits them for improved task execution. Our
experiments on the XAgent framework demonstrate ICE's effectiveness, reducing
API calls by as much as 80% and significantly decreasing the demand for the
model's capability. Specifically, when combined with GPT-3.5, ICE's performance
matches that of raw GPT-4 across various agent tasks. We argue that this
self-evolution approach represents a paradigm shift in agent design,
contributing to a more robust AI community and ecosystem, and moving a step
closer to full autonomy.
- Abstract(参考訳): 本稿では、タスク間の自己進化を通じてAIエージェントの適応性と柔軟性を高めるための新しい戦略であるInvestigate-Consolidate-Exploit(ICE)を紹介する。
タスク内学習に焦点を当てた既存の方法とは異なり、ICEは人間の経験学習と同様、真の自己進化のためのタスク間の知識の伝達を促進する。
この戦略は計画と実行の軌跡を動的に調査し、それらを単純化されたワークフローとパイプラインに統合し、タスク実行の改善に活用する。
XAgentフレームワークに関する我々の実験は、ICEの有効性を示し、API呼び出しを最大80%削減し、モデルの能力に対する需要を大幅に減らした。
具体的には、GPT-3.5と組み合わせると、ICEのパフォーマンスは様々なエージェントタスクで生のGPT-4と一致する。
この自己進化的アプローチはエージェント設計のパラダイムシフトを表し、より堅牢なAIコミュニティとエコシステムに貢献し、完全な自律性に一歩近づいた、と私たちは主張しています。
関連論文リスト
- Decentralized and Lifelong-Adaptive Multi-Agent Collaborative Learning [57.652899266553035]
分散型および生涯適応型多エージェント協調学習は、中央サーバを使わずに複数のエージェント間のコラボレーションを強化することを目的としている。
動的協調グラフを用いた分散マルチエージェント生涯協調学習アルゴリズムであるDeLAMAを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:21:11Z) - Trial and Error: Exploration-Based Trajectory Optimization for LLM
Agents [52.82856458995437]
本稿では,ETOと呼ばれる探索に基づく軌道最適化手法を提案する。
この学習方法はオープンLLMエージェントの性能を向上させるために設計されている。
3つの複雑なタスクに関する実験は、ETOがベースライン性能をはるかに上回っていることを示す。
論文 参考訳(メタデータ) (2024-03-04T21:50:29Z) - ADAPTER-RL: Adaptation of Any Agent using Reinforcement Learning [0.0]
アダプタは自然言語処理やコンピュータビジョンなどの教師あり学習コンテキストにおいて有効であることが証明されている。
本稿では,学習効率の向上とベースエージェントの改良を実証する,革新的な適応戦略を提案する。
提案するユニバーサルアプローチは、事前訓練されたニューラルネットワークだけでなく、ルールベースのエージェントとも互換性があり、人間の専門知識を統合する手段を提供する。
論文 参考訳(メタデータ) (2023-11-20T04:54:51Z) - Dynamic LLM-Agent Network: An LLM-agent Collaboration Framework with
Agent Team Optimization [59.39113350538332]
大規模言語モデル(LLM)エージェントは幅広いタスクで有効であることが示されており、複数のLLMエージェントを組み込むことで、その性能をさらに向上することができる。
既存のアプローチでは、固定されたエージェントセットを使用して静的アーキテクチャで相互に相互作用する。
我々は、推論やコード生成といった複雑なタスクにおいて、LLM-agentコラボレーションのためにDynamic LLM-Agent Network(textbfDyLAN$)というフレームワークを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:05:48Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - A Surrogate-Assisted Controller for Expensive Evolutionary Reinforcement
Learning [14.128178683323108]
本研究では,Surrogate-assisted Controller (SC)を提案する。
鍵となる課題は、サロゲートによって導入された偽のミニマによって最適化プロセスが誤解されるのを防ぐことである。
OpenAI Gymプラットフォームによる6つの継続的制御タスクの実験は、SCがフィットネス評価のコストを大幅に削減できるだけでなく、オリジナルのハイブリッドフレームワークのパフォーマンスも向上できることを示している。
論文 参考訳(メタデータ) (2022-01-01T06:42:51Z) - A novel approach for multi-agent cooperative pursuit to capture grouped
evaders [3.055209801620639]
自己組織化特徴写像(SOFM)と強化学習に基づく移動型マルチエージェント探索手法を提案する。
実験の結果,この手法は移動体エージェントがより効果的にエバダを捕獲できることが示唆された。
論文 参考訳(メタデータ) (2020-06-01T15:39:58Z) - Parallel Knowledge Transfer in Multi-Agent Reinforcement Learning [0.2538209532048867]
本稿では,MARL(Parallel Attentional Transfer)における新しい知識伝達フレームワークを提案する。
PAT,学生モード,自己学習モードの2つの動作モードを設計する。
エージェントが環境に不慣れな場合、学生モードにおける共有注意機構は、エージェントの行動を決定するために、他のエージェントからの学習知識を効果的に選択する。
論文 参考訳(メタデータ) (2020-03-29T17:42:00Z) - Meta Reinforcement Learning with Autonomous Inference of Subtask
Dependencies [57.27944046925876]
本稿では,タスクがサブタスクグラフによって特徴づけられるような,新しい数発のRL問題を提案し,対処する。
メタ政治を直接学習する代わりに、Subtask Graph Inferenceを使ったメタラーナーを開発した。
実験の結果,2つのグリッドワールド領域とStarCraft II環境において,提案手法が潜在タスクパラメータを正確に推定できることが確認された。
論文 参考訳(メタデータ) (2020-01-01T17:34:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。