論文の概要: Proactive Agent: Shifting LLM Agents from Reactive Responses to Active Assistance
- arxiv url: http://arxiv.org/abs/2410.12361v1
- Date: Wed, 16 Oct 2024 08:24:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-17 13:44:21.162162
- Title: Proactive Agent: Shifting LLM Agents from Reactive Responses to Active Assistance
- Title(参考訳): プロアクティブエージェント: LLMエージェントの反応性反応からアクティブアシストへのシフト
- Authors: Yaxi Lu, Shenzhi Yang, Cheng Qian, Guirong Chen, Qinyu Luo, Yesai Wu, Huadong Wang, Xin Cong, Zhong Zhang, Yankai Lin, Weiwen Liu, Yasheng Wang, Zhiyuan Liu, Fangming Liu, Maosong Sun,
- Abstract要約: 我々は、人間の指示なしにタスクを予測および開始できるプロアクティブエージェントを開発するという課題に取り組む。
まず,実世界の人的活動を収集し,前向きなタスク予測を生成する。
これらの予測は、ヒトのアノテータによって受け入れられるか拒否されるかのどちらかとしてラベル付けされる。
ラベル付きデータは、人間の判断をシミュレートする報酬モデルをトレーニングするために使用される。
- 参考スコア(独自算出の注目度): 95.03771007780976
- License:
- Abstract: Agents powered by large language models have shown remarkable abilities in solving complex tasks. However, most agent systems remain reactive, limiting their effectiveness in scenarios requiring foresight and autonomous decision-making. In this paper, we tackle the challenge of developing proactive agents capable of anticipating and initiating tasks without explicit human instructions. We propose a novel data-driven approach for this problem. Firstly, we collect real-world human activities to generate proactive task predictions. These predictions are then labeled by human annotators as either accepted or rejected. The labeled data is used to train a reward model that simulates human judgment and serves as an automatic evaluator of the proactiveness of LLM agents. Building on this, we develop a comprehensive data generation pipeline to create a diverse dataset, ProactiveBench, containing 6,790 events. Finally, we demonstrate that fine-tuning models with the proposed ProactiveBench can significantly elicit the proactiveness of LLM agents. Experimental results show that our fine-tuned model achieves an F1-Score of 66.47% in proactively offering assistance, outperforming all open-source and close-source models. These results highlight the potential of our method in creating more proactive and effective agent systems, paving the way for future advancements in human-agent collaboration.
- Abstract(参考訳): 大規模言語モデルを利用したエージェントは、複雑なタスクを解く際、顕著な能力を示している。
しかしながら、ほとんどのエージェントシステムは、監視と自律的な意思決定を必要とするシナリオにおける有効性を制限し、リアクティブのままである。
本稿では,人間の指示なしにタスクを予測・開始できるプロアクティブエージェントの開発に挑戦する。
本稿では,この問題に対する新しいデータ駆動手法を提案する。
まず,実世界の人的活動を収集し,前向きなタスク予測を生成する。
これらの予測は、人間のアノテーションによって受け入れられるか拒否されるかのどちらかとしてラベル付けされる。
ラベル付きデータは、人間の判断をシミュレートし、LLMエージェントの有効性の自動評価器として機能する報酬モデルを訓練するために使用される。
これに基づいて,6,790のイベントを含む多種多様なデータセットであるProactiveBenchを作成するために,包括的データ生成パイプラインを構築した。
最後に,提案したProactiveBenchを用いた微調整モデルにより,LLMエージェントの有効性を大幅に向上させることができることを示す。
実験結果から,我々はF1スコアの66.47%を積極的に支援し,すべてのオープンソースモデルとクローズソースモデルを上回る結果を得た。
これらの結果は,より積極的に効果的なエージェントシステムを構築する上での本手法の可能性を強調し,人間とエージェントのコラボレーションにおける今後の進歩の道を開くものである。
関連論文リスト
- A Taxonomy of AgentOps for Enabling Observability of Foundation Model based Agents [12.49728300301026]
LLMはさまざまなダウンストリームタスクの成長を加速させ、AI自動化の需要が増加した。
AIエージェントシステムは、より複雑なタスクに取り組み、進化するにつれて、より幅広い利害関係者が関与する。
これらのシステムは、AIエージェント、RAGパイプライン、プロンプト管理、エージェント機能、可観測性機能など、複数のコンポーネントを統合する。
開発から運用ライフサイクル全体にわたって可観測性とトレーサビリティを確保するために、AgentOpsプラットフォームの設計に移行することが不可欠です。
論文 参考訳(メタデータ) (2024-11-08T02:31:03Z) - Forewarned is Forearmed: Leveraging LLMs for Data Synthesis through Failure-Inducing Exploration [90.41908331897639]
大規模言語モデル(LLM)は、多種多様な高品質なタスク特化データのトレーニングの恩恵を受けている。
本稿では,効果的なトレーニングサンプルを自動生成する新しい手法であるReverseGenを提案する。
論文 参考訳(メタデータ) (2024-10-22T06:43:28Z) - On the Modeling Capabilities of Large Language Models for Sequential Decision Making [52.128546842746246]
大規模な事前訓練されたモデルでは、推論や計画タスクのパフォーマンスがますます向上している。
我々は、直接的または間接的に、意思決定ポリシーを作成する能力を評価する。
未知の力学を持つ環境において、合成データを用いた微調整LDMが報酬モデリング能力を大幅に向上させる方法について検討する。
論文 参考訳(メタデータ) (2024-10-08T03:12:57Z) - Agent Q: Advanced Reasoning and Learning for Autonomous AI Agents [44.34340798542]
大きな言語モデル(LLM)は、複雑な推論を必要とする自然言語タスクにおいて顕著な能力を示している。
静的データセットに対する従来の教師付き事前トレーニングは、自律的なエージェント機能を実現するには不十分である。
本稿では,モンテカルロ木探索(MCTS)を自己批判機構と組み合わせ,エージェント間相互作用を反復的に微調整するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T20:52:13Z) - WorkArena++: Towards Compositional Planning and Reasoning-based Common Knowledge Work Tasks [85.95607119635102]
大型言語モデル(LLM)は人間のような知性を模倣することができる。
WorkArena++は、Webエージェントの計画、問題解決、論理的/論理的推論、検索、コンテキスト的理解能力を評価するように設計されている。
論文 参考訳(メタデータ) (2024-07-07T07:15:49Z) - Enhancing the General Agent Capabilities of Low-Parameter LLMs through Tuning and Multi-Branch Reasoning [56.82041895921434]
オープンソースの事前訓練された大規模言語モデル(LLM)は、強力な言語理解と生成能力を示す。
現実世界の複雑な問題に対処するエージェントとして使用される場合、ChatGPTやGPT-4のような大型の商用モデルに比べてパフォーマンスははるかに劣る。
論文 参考訳(メタデータ) (2024-03-29T03:48:12Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - KwaiAgents: Generalized Information-seeking Agent System with Large
Language Models [33.59597020276034]
人間は批判的思考、計画、リフレクション、世界と対話し解釈するための利用可能なツールの活用に優れています。
大規模言語モデル(LLM)の最近の進歩は、マシンが前述の人間のような能力を持っていることも示唆している。
LLMに基づく汎用情報検索システムであるKwaiAgentsを紹介する。
論文 参考訳(メタデータ) (2023-12-08T08:11:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。