論文の概要: Large Language Models Still Can't Plan (A Benchmark for LLMs on Planning
and Reasoning about Change)
- arxiv url: http://arxiv.org/abs/2206.10498v3
- Date: Sat, 8 Apr 2023 00:43:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 23:54:35.139827
- Title: Large Language Models Still Can't Plan (A Benchmark for LLMs on Planning
and Reasoning about Change)
- Title(参考訳): 大規模言語モデルはまだ計画できない (LLMにおける変更計画と推論のベンチマーク)
- Authors: Karthik Valmeekam, Alberto Olmo, Sarath Sreedharan, Subbarao
Kambhampati
- Abstract要約: 大規模言語モデル(LLM)は自然言語処理(NLP)の分野を変革した。
大規模言語モデル(LLM)の最近の進歩は、自然言語処理(NLP)の分野を変えつつある。
- 参考スコア(独自算出の注目度): 33.01659916505635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in large language models (LLMs) have transformed the field of
natural language processing (NLP). From GPT-3 to PaLM, the state-of-the-art
performance on natural language tasks is being pushed forward with every new
large language model. Along with natural language abilities, there has been a
significant interest in understanding whether such models exhibit reasoning
capabilities with the use of reasoning benchmarks. However, even though results
are seemingly positive, these benchmarks prove to be simplistic in nature and
the performance of LLMs on these benchmarks cannot be used as evidence to
support, many a times outlandish, claims being made about LLMs' reasoning
capabilities. Further, these only represent a very limited set of simple
reasoning tasks and we need to look at more sophisticated reasoning problems if
we are to measure the true limits of such LLM-based systems. Motivated by this,
we propose an extensible assessment framework to test the capabilities of LLMs
on reasoning about actions and change, a central aspect of human intelligence.
We provide multiple test cases that are more involved than any of the
previously established benchmarks and each test case evaluates a different
aspect of reasoning about actions and change. Results on GPT-3 (davinci),
Instruct-GPT3 (text-davinci-002) and BLOOM (176B), showcase subpar performance
on such reasoning tasks.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、自然言語処理(NLP)の分野を変えつつある。
GPT-3からPaLMまで、自然言語タスクにおける最先端のパフォーマンスは、あらゆる新しい大規模言語モデルによって前進している。
自然言語能力とともに、そのようなモデルが推論ベンチマークを用いて推論能力を示すかどうかを理解することにも大きな関心が寄せられている。
しかし、結果は肯定的であるように思われるが、これらのベンチマークは本質的に単純であることが証明され、これらのベンチマーク上でのLSMのパフォーマンスは、LCMの推論能力に関する主張がしばしば誇張される証拠として利用できない。
さらに、これらは単純な推論タスクのセットに限られており、そのようなLCMベースのシステムの真の限界を測定するためには、より洗練された推論問題に目を向ける必要がある。
そこで我々は,人間の知性の中心的な側面である行動や変化の推論において,LLMの能力をテストするための拡張性評価フレームワークを提案する。
これまでに確立されたベンチマークよりも多くのテストケースを提供し、各テストケースはアクションや変更に関する推論の異なる側面を評価します。
GPT-3 (davinci), Instruct-GPT3 (text-davinci-002) および BLOOM (176B) の結果は, このような推論タスクにおけるサブパー性能を示した。
関連論文リスト
- Unlocking Reasoning Potential in Large Langauge Models by Scaling Code-form Planning [94.76546523689113]
CodePlanは、テキストコード形式の計画を生成し、追跡するフレームワークで、高いレベルの構造化された推論プロセスの概要を擬似コードで示します。
CodePlanは、洗練された推論タスク固有のリッチなセマンティクスと制御フローを効果的にキャプチャする。
反応を直接生成するのに比べて25.1%の相対的な改善が達成されている。
論文 参考訳(メタデータ) (2024-09-19T04:13:58Z) - Learning to Plan for Retrieval-Augmented Large Language Models from Knowledge Graphs [59.76268575344119]
知識グラフ(KG)から得られた計画データを用いて,大規模言語モデル(LLM)計画能力を向上するための新しいフレームワークを提案する。
KGデータで微調整されたLLMは、計画能力を向上し、検索を含む複雑なQAタスクを処理するのがより適している。
論文 参考訳(メタデータ) (2024-06-20T13:07:38Z) - Exploring and Benchmarking the Planning Capabilities of Large Language Models [57.23454975238014]
この研究は、大規模言語モデル(LLM)の計画能力を改善するための基礎を築いた。
我々は、古典的な計画ベンチマークと自然言語シナリオの両方を含む包括的なベンチマークスイートを構築した。
本研究は,LLM計画の強化を目的としたマルチショットインコンテキスト学習について検討し,文脈長の増大と計画性能の向上の関係について検討する。
論文 参考訳(メタデータ) (2024-06-18T22:57:06Z) - What's the Plan? Evaluating and Developing Planning-Aware Techniques for Language Models [7.216683826556268]
大きな言語モデル(LLM)は、計画機能を必要とするアプリケーションにますます使われています。
我々は,新しいハイブリッド・メソドであるSimPlanを紹介し,その性能を新たな挑戦的な設定で評価する。
論文 参考訳(メタデータ) (2024-02-18T07:42:49Z) - Understanding the planning of LLM agents: A survey [98.82513390811148]
本調査では, LLMをベースとしたエージェント計画の体系的考察を行い, 計画能力の向上を目的とした最近の成果について報告する。
各方向について総合的な分析を行い、研究分野におけるさらなる課題について論じる。
論文 参考訳(メタデータ) (2024-02-05T04:25:24Z) - On the Prospects of Incorporating Large Language Models (LLMs) in
Automated Planning and Scheduling (APS) [23.024862968785147]
本稿では, LLMのユニークな応用に基づく8つのカテゴリを, 計画問題の諸側面に対処するために検討する。
我々のレビューから得られた重要な洞察は、LLMの真の可能性は、従来のシンボリックプランナーと統合されたときに広がります。
論文 参考訳(メタデータ) (2024-01-04T19:22:09Z) - LLM-Assist: Enhancing Closed-Loop Planning with Language-Based Reasoning [65.86754998249224]
従来のルールベースプランナとLCMベースのプランナを併用した,新しいハイブリッドプランナを開発した。
当社のアプローチでは,既存のプランナが苦労する複雑なシナリオをナビゲートし,合理的なアウトプットを生成すると同時に,ルールベースのアプローチと連携して作業する。
論文 参考訳(メタデータ) (2023-12-30T02:53:45Z) - EgoPlan-Bench: Benchmarking Multimodal Large Language Models for Human-Level Planning [84.6451394629312]
実世界のシナリオにおけるMLLMの計画能力を評価するベンチマークであるEgoPlan-Benchを紹介する。
EgoPlan-Benchは、人間レベルのタスクプランニングを実現するためのMLLMの改善のかなりの範囲を浮き彫りにする。
また,EgoPlan-Bench上でのモデル性能を効果的に向上する特殊命令チューニングデータセットであるEgoPlan-ITを提案する。
論文 参考訳(メタデータ) (2023-12-11T03:35:58Z) - Improving Planning with Large Language Models: A Modular Agentic Architecture [7.63815864256878]
大規模言語モデル(LLM)は、多段階の推論や目標指向の計画を必要とするタスクに悩まされることが多い。
本稿では,特殊モジュールの反復的相互作用によって計画が達成されるエージェントアーキテクチャ,MAPを提案する。
MAPは両方の標準LLM法よりも大幅に改善されていることがわかった。
論文 参考訳(メタデータ) (2023-09-30T00:10:14Z) - Understanding the Capabilities of Large Language Models for Automated
Planning [24.37599752610625]
この研究は、複雑な計画問題の解決におけるLLMの能力に光を当てようとしている。
この文脈で LLM を使用するための最も効果的なアプローチに関する洞察を提供する。
論文 参考訳(メタデータ) (2023-05-25T15:21:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。