論文の概要: Investigate-Consolidate-Exploit: A General Strategy for Inter-Task Agent
Self-Evolution
- arxiv url: http://arxiv.org/abs/2401.13996v1
- Date: Thu, 25 Jan 2024 07:47:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-26 15:20:32.001646
- Title: Investigate-Consolidate-Exploit: A General Strategy for Inter-Task Agent
Self-Evolution
- Title(参考訳): Investigate-Consolidate-Exploit: タスク間エージェントの自己進化のための一般的な戦略
- Authors: Cheng Qian, Shihao Liang, Yujia Qin, Yining Ye, Xin Cong, Yankai Lin,
Yesai Wu, Zhiyuan Liu, Maosong Sun
- Abstract要約: Investigate-Consolidate-Exploit(ICE)は、AIエージェントの適応性と柔軟性を高めるための新しい戦略である。
ICEは、真の自己進化のためのタスク間の知識の伝達を促進する。
XAgentフレームワークに関する我々の実験は、ICEの有効性を示し、API呼び出しを最大80%削減する。
- 参考スコア(独自算出の注目度): 92.84441068115517
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces Investigate-Consolidate-Exploit (ICE), a novel strategy
for enhancing the adaptability and flexibility of AI agents through inter-task
self-evolution. Unlike existing methods focused on intra-task learning, ICE
promotes the transfer of knowledge between tasks for genuine self-evolution,
similar to human experience learning. The strategy dynamically investigates
planning and execution trajectories, consolidates them into simplified
workflows and pipelines, and exploits them for improved task execution. Our
experiments on the XAgent framework demonstrate ICE's effectiveness, reducing
API calls by as much as 80% and significantly decreasing the demand for the
model's capability. Specifically, when combined with GPT-3.5, ICE's performance
matches that of raw GPT-4 across various agent tasks. We argue that this
self-evolution approach represents a paradigm shift in agent design,
contributing to a more robust AI community and ecosystem, and moving a step
closer to full autonomy.
- Abstract(参考訳): 本稿では、タスク間の自己進化を通じてAIエージェントの適応性と柔軟性を高めるための新しい戦略であるInvestigate-Consolidate-Exploit(ICE)を紹介する。
タスク内学習に焦点を当てた既存の方法とは異なり、ICEは人間の経験学習と同様、真の自己進化のためのタスク間の知識の伝達を促進する。
この戦略は計画と実行の軌跡を動的に調査し、それらを単純化されたワークフローとパイプラインに統合し、タスク実行の改善に活用する。
XAgentフレームワークに関する我々の実験は、ICEの有効性を示し、API呼び出しを最大80%削減し、モデルの能力に対する需要を大幅に減らした。
具体的には、GPT-3.5と組み合わせると、ICEのパフォーマンスは様々なエージェントタスクで生のGPT-4と一致する。
この自己進化的アプローチはエージェント設計のパラダイムシフトを表し、より堅牢なAIコミュニティとエコシステムに貢献し、完全な自律性に一歩近づいた、と私たちは主張しています。
関連論文リスト
- From Novice to Expert: LLM Agent Policy Optimization via Step-wise Reinforcement Learning [62.54484062185869]
本稿では,エージェントの強化学習プロセスの最適化にステップワイド報酬を利用するStepAgentを紹介する。
エージェント反射とポリシー調整を容易にする暗黙の逆・逆の強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T10:35:11Z) - Meta-Learning Integration in Hierarchical Reinforcement Learning for Advanced Task Complexity [0.0]
階層強化学習(HRL)は、それらを構造化されたポリシーに分解することで、複雑なタスクに効果的に取り組む。
我々は、メタラーニングをHRLに統合し、エージェントの学習能力を高め、階層的な政策を迅速に適応させる。
論文 参考訳(メタデータ) (2024-10-10T13:47:37Z) - Gödel Agent: A Self-Referential Agent Framework for Recursive Self-Improvement [117.94654815220404]
G"odel AgentはG"odelマシンにインスパイアされた自己進化型フレームワークである。
G"odel Agentは、パフォーマンス、効率、一般化性において手作業によるエージェントを上回る、継続的な自己改善を実現することができる。
論文 参考訳(メタデータ) (2024-10-06T10:49:40Z) - Textualized Agent-Style Reasoning for Complex Tasks by Multiple Round LLM Generation [49.27250832754313]
我々は、llmベースの自律エージェントフレームワークであるAgentCOTを紹介する。
それぞれのステップで、AgentCOTはアクションを選択し、それを実行して、証拠を裏付ける中間結果を得る。
エージェントCOTの性能を高めるための2つの新しい戦略を導入する。
論文 参考訳(メタデータ) (2024-09-19T02:20:06Z) - Instigating Cooperation among LLM Agents Using Adaptive Information Modulation [0.6749750044497731]
本稿では,人間戦略行動と強化学習のためのプロキシとしてLLMエージェントを併用した新しいフレームワークを提案する。
ネットワーク内のエージェント間での情報アクセスを調節し、社会的福祉を最適化し、社会的行動を促進する。
このフレームワークは、実世界のチーム設定におけるAIの展開に寄与する、AIを介するソーシャルダイナミクスに関する重要な洞察を提供する。
論文 参考訳(メタデータ) (2024-09-16T15:15:51Z) - GenAgent: Build Collaborative AI Systems with Automated Workflow Generation -- Case Studies on ComfyUI [64.57616646552869]
本稿では、モデル、データソース、パイプラインを統合し、複雑で多様なタスクを解決するためにパフォーマンスを向上させるために使用される協調AIシステムについて検討する。
我々は、LLMベースのフレームワークであるGenAgentを紹介した。
その結果、GenAgentは実行レベルおよびタスクレベルの評価においてベースラインアプローチよりも優れていた。
論文 参考訳(メタデータ) (2024-09-02T17:44:10Z) - Tradeoffs When Considering Deep Reinforcement Learning for Contingency Management in Advanced Air Mobility [0.0]
航空輸送は、Advanced Air Mobility (AAM)の導入により、世界中で急速に進化している。
運用上の安全性と効率の目標を達成するためには、自動化のレベルが増加する必要がある。
本稿では,複雑・高次元環境において有望な性能を示す深層強化学習(DRL)の利用について検討する。
論文 参考訳(メタデータ) (2024-06-28T19:09:55Z) - Decentralized and Lifelong-Adaptive Multi-Agent Collaborative Learning [57.652899266553035]
分散型および生涯適応型多エージェント協調学習は、中央サーバを使わずに複数のエージェント間のコラボレーションを強化することを目的としている。
動的協調グラフを用いた分散マルチエージェント生涯協調学習アルゴリズムであるDeLAMAを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:21:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。