論文の概要: Understanding the Capabilities of Large Language Models for Automated
Planning
- arxiv url: http://arxiv.org/abs/2305.16151v1
- Date: Thu, 25 May 2023 15:21:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 14:18:26.233633
- Title: Understanding the Capabilities of Large Language Models for Automated
Planning
- Title(参考訳): 自動計画のための大規模言語モデルの能力理解
- Authors: Vishal Pallagani and Bharath Muppasani and Keerthiram Murugesan and
Francesca Rossi and Biplav Srivastava and Lior Horesh and Francesco Fabiano
and Andrea Loreggia
- Abstract要約: この研究は、複雑な計画問題の解決におけるLLMの能力に光を当てようとしている。
この文脈で LLM を使用するための最も効果的なアプローチに関する洞察を提供する。
- 参考スコア(独自算出の注目度): 24.37599752610625
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Automated planning is concerned with developing efficient algorithms to
generate plans or sequences of actions to achieve a specific goal in a given
environment. Emerging Large Language Models (LLMs) can answer questions, write
high-quality programming code, and predict protein folding, showcasing their
versatility in solving various tasks beyond language-based problems. In this
paper, we aim to explore how LLMs can also be used for automated planning. To
do so, we seek to answer four key questions. Firstly, we want to understand the
extent to which LLMs can be used for plan generation. Secondly, we aim to
identify which pre-training data is most effective in facilitating plan
generation. Thirdly, we investigate whether fine-tuning or prompting is a more
effective approach for plan generation. Finally, we explore whether LLMs are
capable of plan generalization. By answering these questions, the study seeks
to shed light on the capabilities of LLMs in solving complex planning problems
and provide insights into the most effective approaches for using LLMs in this
context.
- Abstract(参考訳): 自動計画は、特定の環境で特定の目標を達成するための計画や一連の行動を生成する効率的なアルゴリズムを開発することに関心がある。
Emerging Large Language Models (LLMs)は、質問に答え、高品質なプログラミングコードを書き、タンパク質の折り畳みを予測することができ、言語ベースの問題を超えた様々なタスクを解くための汎用性を示している。
本稿では,LLMが自動計画にどのように使用できるかを検討することを目的とする。
そのために4つの重要な質問に答える。
まず、LLMが計画生成にどの程度使えるかを理解したい。
第2に,計画作成に最も有効な事前学習データを特定することを目的とする。
第3に、細調整とプロンプトが計画生成に有効なアプローチであるかどうかを検討する。
最後に, LLM が計画一般化が可能かどうかを考察する。
これらの質問に答えることで、複雑な計画問題の解決におけるLLMの能力を明らかにし、この文脈でLLMを使用する上で最も効果的なアプローチについての洞察を提供する。
関連論文リスト
- Plan, Eliminate, and Track -- Language Models are Good Teachers for
Embodied Agents [99.17668730578586]
事前訓練された大言語モデル(LLM)は、世界に関する手続き的な知識をキャプチャする。
Plan, Eliminate, and Track (PET)フレームワークはタスク記述をハイレベルなサブタスクのリストに変換する。
PETフレームワークは、人間の目標仕様への一般化のために、SOTAよりも15%改善されている。
論文 参考訳(メタデータ) (2023-05-03T20:11:22Z) - LLM+P: Empowering Large Language Models with Optimal Planning
Proficiency [52.095284938781695]
大規模言語モデル(LLM)は、目覚ましいゼロショットの一般化能力を示している。
古典的なプランナーは、一度形式化された方法で問題が与えられると、効率的な検索アルゴリズムを使って、正しい、あるいは最適なプランを素早く特定できる。
本稿では,従来のプランナーの強みを LLM に組み込んだ最初のフレームワークである LLM+P を紹介する。
論文 参考訳(メタデータ) (2023-04-22T20:34:03Z) - Learning to Program with Natural Language [82.01687098574722]
本稿では,タスクプロシージャを記述するために,自然言語を新しい言語として用いることを提案する。
AMPSとMathデータセットに関する実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-04-20T17:09:12Z) - Low-code LLM: Visual Programming over LLMs [49.37966903221752]
本稿では,人間-LLMインタラクションフレームワークであるLow-code LLMを紹介する。
6種類のシンプルなローコードビジュアルプログラミングインタラクションが組み込まれており、すべてクリック、ドラッグ、テキスト編集によってサポートされている。
低コードLSMの利点として、制御可能な生成結果、ユーザフレンドリなヒューマン-LLMインタラクション、広く適用可能なシナリオの3つを挙げる。
論文 参考訳(メタデータ) (2023-04-17T09:27:40Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z) - Translating Natural Language to Planning Goals with Large-Language
Models [19.738395237639136]
近年の大規模言語モデル(LLM)は,様々な自然言語処理(NLP)タスクにおいて顕著な性能を示した。
我々の中心的な問題は、LLMが自然言語で指定された目標を構造化された計画言語に翻訳できるかどうかである。
GPT 3.5 変種に対する実験結果から,LCM は計画よりも翻訳に適していることが示された。
論文 参考訳(メタデータ) (2023-02-10T09:17:52Z) - Plansformer: Generating Symbolic Plans using Transformers [24.375997526106246]
大規模言語モデル(LLM)は、自然言語処理(NLP)分野を著しく進歩させ、活発な研究対象となっている。
プランフォーマーは計画上の問題に微調整され、知識工学の努力を減らし、正確さと長さの点で良好な行動で計画を生成することができる。
Plansformerの1つの構成では、97%の有効なプランが達成されます。
論文 参考訳(メタデータ) (2022-12-16T19:06:49Z) - LLM-Planner: Few-Shot Grounded Planning for Embodied Agents with Large
Language Models [27.318186938382233]
本研究では,大規模言語モデル(LLM)を具体化エージェントのプランナーとして用いることに焦点を当てた。
そこで本研究では,大規模言語モデルのパワーを活かして少数ショットプランニングを行う新しい手法 LLM-Planner を提案する。
論文 参考訳(メタデータ) (2022-12-08T05:46:32Z) - On Grounded Planning for Embodied Tasks with Language Models [30.217305215259277]
言語モデル(LM)は物理世界の常識を持つ。
LMが具体化されたタスクに対して、基礎的で実行可能な計画を生成する能力を持っているかどうかは、まだ未解決の問題である。
本稿では,G-Planetという新しい問題定式化手法を提案する。
論文 参考訳(メタデータ) (2022-08-29T16:37:18Z) - A Survey on Large-scale Machine Learning [67.6997613600942]
機械学習はデータに対する深い洞察を与え、マシンが高品質な予測を行うことを可能にする。
ほとんどの高度な機械学習アプローチは、大規模なデータを扱う場合の膨大な時間コストに悩まされる。
大規模機械学習は、ビッグデータからパターンを、同等のパフォーマンスで効率的に学習することを目的としている。
論文 参考訳(メタデータ) (2020-08-10T06:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。