論文の概要: Auto-GPT for Online Decision Making: Benchmarks and Additional Opinions
- arxiv url: http://arxiv.org/abs/2306.02224v1
- Date: Sun, 4 Jun 2023 01:07:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 19:14:41.630389
- Title: Auto-GPT for Online Decision Making: Benchmarks and Additional Opinions
- Title(参考訳): オンライン意思決定のための自動GPT:ベンチマークと追加の意見
- Authors: Hui Yang, Sifu Yue, Yunzhong He
- Abstract要約: Auto-GPTは、意思決定タスクに大規模言語モデルを適用する自律エージェントである。
本稿では,実世界のシナリオをシミュレートする意思決定タスクにおけるAuto-GPTスタイルエージェントのベンチマーク研究を行う。
本稿では,教師付き/アニメーションベースの学習者をAuto-GPTスキームに組み込む,簡単かつ効果的な手法であるAdvanced Opinionsアルゴリズムを紹介する。
- 参考スコア(独自算出の注目度): 3.63900449369255
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Auto-GPT is an autonomous agent that leverages recent advancements in
adapting Large Language Models (LLMs) for decision-making tasks. While there
has been a growing interest in Auto-GPT stypled agents, questions remain
regarding the effectiveness and flexibility of Auto-GPT in solving real-world
decision-making tasks. Its limited capability for real-world engagement and the
absence of benchmarks contribute to these uncertainties. In this paper, we
present a comprehensive benchmark study of Auto-GPT styled agents in
decision-making tasks that simulate real-world scenarios. Our aim is to gain
deeper insights into this problem and understand the adaptability of GPT-based
agents. We compare the performance of popular LLMs such as GPT-4, GPT-3.5,
Claude, and Vicuna in Auto-GPT styled decision-making tasks. Furthermore, we
introduce the Additional Opinions algorithm, an easy and effective method that
incorporates supervised/imitation-based learners into the Auto-GPT scheme. This
approach enables lightweight supervised learning without requiring fine-tuning
of the foundational LLMs. We demonstrate through careful baseline comparisons
and ablation studies that the Additional Opinions algorithm significantly
enhances performance in online decision-making benchmarks, including WebShop
and ALFWorld.
- Abstract(参考訳): Auto-GPTは、意思決定タスクに大規模言語モデル(LLM)を適用する際の最近の進歩を活用する自律エージェントである。
オートGPTのスタイパードエージェントへの関心は高まっているが、現実の意思決定タスクの解決におけるオートGPTの有効性と柔軟性については疑問が残る。
実世界のエンゲージメントの制限とベンチマークの欠如は、これらの不確実性に寄与する。
本稿では,実世界のシナリオをシミュレートする意思決定タスクにおけるオートGPTスタイルエージェントの総合的ベンチマークを行う。
我々の目標は、この問題に対する深い洞察を得て、GPTベースのエージェントの適応性を理解することである。
GPT-4, GPT-3.5, Claude, Vicunaなどの一般的なLCMの性能を自動GPT方式の意思決定タスクで比較する。
さらに,教師付き/模倣ベースの学習者を自動gpt方式に組み込む,簡単かつ効果的な手法である追加オピニオンアルゴリズムを導入する。
このアプローチにより,基礎LLMの微調整を必要とせず,軽量な教師あり学習が可能となる。
本稿では,WebShop や ALFWorld などのオンライン意思決定ベンチマークにおいて,追加オピニオンアルゴリズムが性能を大幅に向上させることを示す。
関連論文リスト
- AutoPT: How Far Are We from the End2End Automated Web Penetration Testing? [54.65079443902714]
LLMによって駆動されるPSMの原理に基づく自動浸透試験エージェントであるAutoPTを紹介する。
以上の結果から, AutoPT は GPT-4o ミニモデル上でのベースラインフレームワーク ReAct よりも優れていた。
論文 参考訳(メタデータ) (2024-11-02T13:24:30Z) - AutoAct: Automatic Agent Learning from Scratch for QA via Self-Planning [54.47116888545878]
AutoActはQAのための自動エージェント学習フレームワークである。
大規模アノテートデータやクローズドソースモデルからの合成計画軌道は依存していない。
論文 参考訳(メタデータ) (2024-01-10T16:57:24Z) - LanguageMPC: Large Language Models as Decision Makers for Autonomous
Driving [87.1164964709168]
この作業では、複雑な自律運転シナリオの意思決定コンポーネントとして、Large Language Models(LLM)を採用している。
大規模実験により,提案手法は単車載タスクのベースラインアプローチを一貫して超えるだけでなく,複数車載コーディネートにおいても複雑な運転動作の処理にも有効であることが示された。
論文 参考訳(メタデータ) (2023-10-04T17:59:49Z) - DriveGPT4: Interpretable End-to-end Autonomous Driving via Large Language Model [84.29836263441136]
本研究は,マルチモーダル大言語モデル(MLLM)に基づく新しい解釈可能なエンドツーエンド自動運転システムであるDriveGPT4を紹介する。
DriveGPT4は、車両動作の解釈を促進し、関連する推論を提供し、ユーザによるさまざまな質問に効果的に対処する。
論文 参考訳(メタデータ) (2023-10-02T17:59:52Z) - AutoML-GPT: Large Language Model for AutoML [5.9145212342776805]
包括的なツールとライブラリを統合するAutoML-GPTというフレームワークを確立しました。
会話インターフェースを通じて、ユーザーは要求、制約、評価メトリクスを指定できる。
我々は、AutoML-GPTが機械学習タスクに必要な時間と労力を大幅に削減することを示した。
論文 参考訳(メタデータ) (2023-09-03T09:39:49Z) - Transforming the Output of Generative Pre-trained Transformer: The
Influence of the PGI Framework on Attention Dynamics [0.0]
本稿では,GPTモデルによる課題に対処するため,Persona-Grouping-Intelligence (PGI) という新しいアプローチを提案する。
このアプローチの主な目的は、広範で単調で反復的なタスクにおいて、GPTモデルを活用して、人間の作業負荷を削減することである。
興味深いことに、この実験は、モデルが生成した4,000の応答を検証する際に、93.81%の精度で得られた。
論文 参考訳(メタデータ) (2023-08-25T11:41:05Z) - Automatically Correcting Large Language Models: Surveying the landscape
of diverse self-correction strategies [104.32199881187607]
大規模言語モデル(LLM)は、幅広いNLPタスクで顕著な性能を示した。
これらの欠陥を正すための有望なアプローチは自己補正であり、LLM自体が自身の出力で問題を修正するために誘導される。
本稿では,この新技術について概観する。
論文 参考訳(メタデータ) (2023-08-06T18:38:52Z) - A Reinforcement Learning-assisted Genetic Programming Algorithm for Team
Formation Problem Considering Person-Job Matching [70.28786574064694]
解の質を高めるために強化学習支援遺伝的プログラミングアルゴリズム(RL-GP)を提案する。
効率的な学習を通じて得られる超ヒューリスティックなルールは、プロジェクトチームを形成する際の意思決定支援として利用することができる。
論文 参考訳(メタデータ) (2023-04-08T14:32:12Z) - Decision-making for Autonomous Vehicles on Highway: Deep Reinforcement
Learning with Continuous Action Horizon [14.059728921828938]
本稿では,高速道路における連続水平決定問題に対処するために,深部強化学習(DRL)手法を用いる。
エゴ自動車両の走行目標は、衝突することなく効率的でスムーズなポリシーを実行することである。
PPO-DRLに基づく意思決定戦略は、最適性、学習効率、適応性など、複数の観点から推定される。
論文 参考訳(メタデータ) (2020-08-26T22:49:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。