論文の概要: Language Models can Infer Action Semantics for Symbolic Planners from Environment Feedback
- arxiv url: http://arxiv.org/abs/2406.02791v2
- Date: Fri, 08 Nov 2024 16:50:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-11 14:53:01.734700
- Title: Language Models can Infer Action Semantics for Symbolic Planners from Environment Feedback
- Title(参考訳): 言語モデルは環境フィードバックからシンボルプランナーの行動意味論を推論できる
- Authors: Wang Zhu, Ishika Singh, Robin Jia, Jesse Thomason,
- Abstract要約: 言語モデルを用いた行動予測法(PSALM)を提案する。
PSALMはシンボルプランナーとLarge Language Models(LLM)の強みを活用することでアクションセマンティクスを学習する
実験の結果、PSALMは計画の成功率を36.4%(Claude-3.5)から100%に向上させ、基礎となる真理ドメインのアクションセマンティクスを推論する以前の作業よりも効率的に環境を探索する。
- 参考スコア(独自算出の注目度): 26.03718733867297
- License:
- Abstract: Symbolic planners can discover a sequence of actions from initial to goal states given expert-defined, domain-specific logical action semantics. Large Language Models (LLMs) can directly generate such sequences, but limitations in reasoning and state-tracking often result in plans that are insufficient or unexecutable. We propose Predicting Semantics of Actions with Language Models (PSALM), which automatically learns action semantics by leveraging the strengths of both symbolic planners and LLMs. PSALM repeatedly proposes and executes plans, using the LLM to partially generate plans and to infer domain-specific action semantics based on execution outcomes. PSALM maintains a belief over possible action semantics that is iteratively updated until a goal state is reached. Experiments on 7 environments show that when learning just from one goal, PSALM boosts plan success rate from 36.4% (on Claude-3.5) to 100%, and explores the environment more efficiently than prior work to infer ground truth domain action semantics.
- Abstract(参考訳): シンボリックプランナーは、専門家が定義したドメイン固有の論理的アクションセマンティクスが与えられた初期状態から目標状態までの一連のアクションを発見できる。
大規模言語モデル(LLM)はそのようなシーケンスを直接生成できるが、推論や状態追跡の制限は、しばしば不十分または実行不可能な計画をもたらす。
本稿では,記号プランナとLLMの両方の強みを活用して,行動意味論を自動学習する言語モデルを用いた行動意味予測手法を提案する。
PSALMは計画を繰り返し提案し実行し、LSMを使用して計画の一部を生成し、実行結果に基づいてドメイン固有のアクションセマンティクスを推論する。
PSALMは、ゴール状態に到達するまで反復的に更新されるアクションセマンティクスに関する信念を維持している。
7つの環境での実験では、PSALMは1つの目標から学習すると、計画の成功率を36.4%(クロード3.5で)から100%に引き上げ、基礎となる真理領域のアクションセマンティクスを推測する以前の作業よりも効率的に環境を探索する。
関連論文リスト
- Language Agents Meet Causality -- Bridging LLMs and Causal World Models [50.79984529172807]
因果表現学習を大規模言語モデルと統合する枠組みを提案する。
このフレームワークは、自然言語表現に関連付けられた因果変数を持つ因果世界モデルを学ぶ。
本研究では,時間的スケールと環境の複雑さを考慮した因果推論と計画課題の枠組みを評価する。
論文 参考訳(メタデータ) (2024-10-25T18:36:37Z) - Planning in the Dark: LLM-Symbolic Planning Pipeline without Experts [34.636688162807836]
大規模言語モデル(LLM)は、自然言語で記述された計画課題の解決において有望であるが、それらの直接的な使用はしばしば矛盾した推論と幻覚をもたらす。
本稿では,自然言語記述の多種多様な解釈を考慮し,複数の候補を生成するアクションスキーマライブラリを構築する手法を提案する。
実験の結果、パイプラインは直接LLM計画アプローチよりもプランニングが優れていることが示された。
論文 参考訳(メタデータ) (2024-09-24T09:33:12Z) - LangSuitE: Planning, Controlling and Interacting with Large Language Models in Embodied Text Environments [70.91258869156353]
テキストエンボディの世界における6つの代表的具体的タスクを特徴とする多目的・シミュレーション不要なテストベッドであるLangSuitEを紹介する。
以前のLLMベースのテストベッドと比較すると、LangSuitEは複数のシミュレーションエンジンを使わずに、多様な環境への適応性を提供する。
具体化された状態の履歴情報を要約した新しいチェーン・オブ・ソート(CoT)スキーマであるEmMemを考案する。
論文 参考訳(メタデータ) (2024-06-24T03:36:29Z) - Exploring and Benchmarking the Planning Capabilities of Large Language Models [57.23454975238014]
この研究は、大規模言語モデル(LLM)の計画能力を改善するための基礎を築いた。
我々は、古典的な計画ベンチマークと自然言語シナリオの両方を含む包括的なベンチマークスイートを構築した。
本研究は,LLM計画の強化を目的としたマルチショットインコンテキスト学習について検討し,文脈長の増大と計画性能の向上の関係について検討する。
論文 参考訳(メタデータ) (2024-06-18T22:57:06Z) - Learning adaptive planning representations with natural language
guidance [90.24449752926866]
本稿では,タスク固有の計画表現を自動構築するフレームワークであるAdaについて述べる。
Adaは、プランナー互換の高レベルアクション抽象化と、特定の計画タスク領域に適応した低レベルコントローラのライブラリを対話的に学習する。
論文 参考訳(メタデータ) (2023-12-13T23:35:31Z) - ISR-LLM: Iterative Self-Refined Large Language Model for Long-Horizon
Sequential Task Planning [7.701407633867452]
大規模言語モデル(LLM)は、タスクに依存しないプランナとして一般化性を高める可能性を提供する。
ISR-LLMは,反復的な自己複製プロセスを通じてLCMに基づく計画を改善する新しいフレームワークである。
ISR-LLM は現状の LLM ベースのプランナに比べてタスク達成率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2023-08-26T01:31:35Z) - A Picture is Worth a Thousand Words: Language Models Plan from Pixels [53.85753597586226]
計画は, 実環境下で長時間の作業を行う人工エージェントの重要な機能である。
本研究では,事前学習型言語モデル(PLM)を用いて,具体的視覚環境におけるテキスト命令からのプランシーケンスを推論する。
論文 参考訳(メタデータ) (2023-03-16T02:02:18Z) - Language Models as Zero-Shot Planners: Extracting Actionable Knowledge
for Embodied Agents [111.33545170562337]
自然言語で表現された高レベルなタスクを、選択された実行可能なステップのセットに基底付ける可能性について検討する。
事前学習したLMが十分に大きく、適切に誘導された場合、ハイレベルなタスクを効果的に低レベルな計画に分解できることがわかった。
本稿では,既存の実演の条件を規定し,計画が許容可能な行動に意味的に変換される手順を提案する。
論文 参考訳(メタデータ) (2022-01-18T18:59:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。