論文の概要: Large Language Models Still Can't Plan (A Benchmark for LLMs on Planning
and Reasoning about Change)
- arxiv url: http://arxiv.org/abs/2206.10498v1
- Date: Tue, 21 Jun 2022 16:15:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 13:26:54.551039
- Title: Large Language Models Still Can't Plan (A Benchmark for LLMs on Planning
and Reasoning about Change)
- Title(参考訳): 大規模言語モデルはまだ計画できない (LLMにおける変更計画と推論のベンチマーク)
- Authors: Karthik Valmeekam, Alberto Olmo, Sarath Sreedharan, Subbarao
Kambhampati
- Abstract要約: 人間の知性の中心的な側面において,LLMの能力を評価するための評価枠組みを提案する。
以前に確立された推論ベンチマークよりも多くのテストケースが関与しています。
GPT-3(Davinci)のベースバージョンの初期評価結果では,これらのベンチマークでサブパー性能を示した。
- 参考スコア(独自算出の注目度): 33.01659916505635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent advances in large language models (LLMs) have transformed the
field of natural language processing (NLP). From GPT-3 to PaLM, the
state-of-the-art performance on natural language tasks is being pushed forward
with every new large language model. Along with natural language abilities,
there has been a significant interest in understanding whether such models,
trained on enormous amounts of data, exhibit reasoning capabilities. Hence
there has been interest in developing benchmarks for various reasoning tasks
and the preliminary results from testing LLMs over such benchmarks seem mostly
positive. However, the current benchmarks are relatively simplistic and the
performance over these benchmarks cannot be used as an evidence to support,
many a times outlandish, claims being made about LLMs' reasoning capabilities.
As of right now, these benchmarks only represent a very limited set of simple
reasoning tasks and we need to look at more sophisticated reasoning problems if
we are to measure the true limits of such LLM-based systems. With this
motivation, we propose an extensible assessment framework to test the abilities
of LLMs on a central aspect of human intelligence, which is reasoning about
actions and change. We provide multiple test cases that are more involved than
any of the previously established reasoning benchmarks and each test case
evaluates a certain aspect of reasoning about actions and change. Initial
evaluation results on the base version of GPT-3 (Davinci), showcase subpar
performance on these benchmarks.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、自然言語処理(NLP)の分野を変えつつある。
GPT-3からPaLMまで、自然言語タスクにおける最先端のパフォーマンスは、あらゆる新しい大規模言語モデルによって前進している。
自然言語能力に加えて、そのようなモデルが大量のデータに基づいて訓練され、推論能力を示すかどうかを理解することにも大きな関心が寄せられている。
したがって、様々な推論タスクのためのベンチマークの開発に関心があり、そのようなベンチマークよりもLSMのテストによる予備的な結果はほとんど肯定的であるように思われる。
しかしながら、現在のベンチマークは比較的単純であり、これらのベンチマークに対するパフォーマンスは、LCMの推論能力に関する主張がしばしば誇張される証拠として使うことはできない。
現在、これらのベンチマークは単純な推論タスクのセットに限られており、そのようなLCMベースのシステムの真の限界を測定するためには、より洗練された推論問題に目を向ける必要がある。
このモチベーションを生かして,人間の知性の中心的な側面においてLLMの能力をテストするための拡張性評価フレームワークを提案する。
これまでに確立された推論ベンチマークよりも関与する複数のテストケースを提供し、各テストケースはアクションや変更に関する推論の特定の側面を評価します。
GPT-3(Davinci)のベースバージョンの初期評価結果では,これらのベンチマークでサブパー性能を示した。
関連論文リスト
- Zero-shot Robotic Manipulation with Language-guided Instruction and Formal Task Planning [16.89900521727246]
本稿では,言語誘導型シンボリックタスク計画(LM-SymOpt)フレームワークの最適化を提案する。
大規模言語モデルからの世界的知識と公式な推論を組み合わせた最初のエキスパートフリーな計画フレームワークです。
実験の結果,LM-SymOpt は既存の LLM ベースの計画手法よりも優れていた。
論文 参考訳(メタデータ) (2025-01-25T13:33:22Z) - EgoPlan-Bench2: A Benchmark for Multimodal Large Language Model Planning in Real-World Scenarios [53.26658545922884]
EgoPlan-Bench2は,MLLMの計画能力を評価するためのベンチマークである。
我々は,21の競争的MLLMを評価し,その限界を詳細に分析した結果,実世界の計画において大きな課題に直面していることが明らかとなった。
EgoPlan-Bench2におけるGPT-4Vの10.24倍の性能向上を図る。
論文 参考訳(メタデータ) (2024-12-05T18:57:23Z) - Unlocking Reasoning Potential in Large Langauge Models by Scaling Code-form Planning [94.76546523689113]
CodePlanは、テキストコード形式の計画を生成し、追跡するフレームワークで、高いレベルの構造化された推論プロセスの概要を擬似コードで示します。
CodePlanは、洗練された推論タスク固有のリッチなセマンティクスと制御フローを効果的にキャプチャする。
反応を直接生成するのに比べて25.1%の相対的な改善が達成されている。
論文 参考訳(メタデータ) (2024-09-19T04:13:58Z) - Exploring and Benchmarking the Planning Capabilities of Large Language Models [57.23454975238014]
この研究は、大規模言語モデル(LLM)の計画能力を改善するための基礎を築いた。
我々は、古典的な計画ベンチマークと自然言語シナリオの両方を含む包括的なベンチマークスイートを構築した。
本研究は,LLM計画の強化を目的としたマルチショットインコンテキスト学習について検討し,文脈長の増大と計画性能の向上の関係について検討する。
論文 参考訳(メタデータ) (2024-06-18T22:57:06Z) - What's the Plan? Evaluating and Developing Planning-Aware Techniques for Language Models [7.216683826556268]
大きな言語モデル(LLM)は、計画機能を必要とするアプリケーションにますます使われています。
我々は,新しいハイブリッド・メソドであるSimPlanを紹介し,その性能を新たな挑戦的な設定で評価する。
論文 参考訳(メタデータ) (2024-02-18T07:42:49Z) - Understanding the planning of LLM agents: A survey [98.82513390811148]
本調査では, LLMをベースとしたエージェント計画の体系的考察を行い, 計画能力の向上を目的とした最近の成果について報告する。
各方向について総合的な分析を行い、研究分野におけるさらなる課題について論じる。
論文 参考訳(メタデータ) (2024-02-05T04:25:24Z) - LLM-Assist: Enhancing Closed-Loop Planning with Language-Based Reasoning [65.86754998249224]
従来のルールベースプランナとLCMベースのプランナを併用した,新しいハイブリッドプランナを開発した。
当社のアプローチでは,既存のプランナが苦労する複雑なシナリオをナビゲートし,合理的なアウトプットを生成すると同時に,ルールベースのアプローチと連携して作業する。
論文 参考訳(メタデータ) (2023-12-30T02:53:45Z) - EgoPlan-Bench: Benchmarking Multimodal Large Language Models for Human-Level Planning [84.6451394629312]
実世界のシナリオにおけるMLLMの計画能力を評価するベンチマークであるEgoPlan-Benchを紹介する。
EgoPlan-Benchは、人間レベルのタスクプランニングを実現するためのMLLMの改善のかなりの範囲を浮き彫りにする。
また,EgoPlan-Bench上でのモデル性能を効果的に向上する特殊命令チューニングデータセットであるEgoPlan-ITを提案する。
論文 参考訳(メタデータ) (2023-12-11T03:35:58Z) - Improving Planning with Large Language Models: A Modular Agentic Architecture [7.63815864256878]
大規模言語モデル(LLM)は、多段階の推論や目標指向の計画を必要とするタスクに悩まされることが多い。
本稿では,特殊モジュールの反復的相互作用によって計画が達成されるエージェントアーキテクチャ,MAPを提案する。
MAPは両方の標準LLM法よりも大幅に改善されていることがわかった。
論文 参考訳(メタデータ) (2023-09-30T00:10:14Z) - Understanding the Capabilities of Large Language Models for Automated
Planning [24.37599752610625]
この研究は、複雑な計画問題の解決におけるLLMの能力に光を当てようとしている。
この文脈で LLM を使用するための最も効果的なアプローチに関する洞察を提供する。
論文 参考訳(メタデータ) (2023-05-25T15:21:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。