論文の概要: Thinking Forward and Backward: Effective Backward Planning with Large Language Models
- arxiv url: http://arxiv.org/abs/2411.01790v1
- Date: Mon, 04 Nov 2024 04:26:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:42:17.009324
- Title: Thinking Forward and Backward: Effective Backward Planning with Large Language Models
- Title(参考訳): 前方と後方を考える:大規模言語モデルによる効果的な後方計画
- Authors: Allen Z. Ren, Brian Ichter, Anirudha Majumdar,
- Abstract要約: 大規模言語モデル(LLM)は、顕著な推論と計画能力を示した。
多くの計画問題は、目標から後方への計画が著しく容易になるような固有の非対称性を示す。
本稿では,LLMの後方計画アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 19.05496894766632
- License:
- Abstract: Large language models (LLMs) have exhibited remarkable reasoning and planning capabilities. Most prior work in this area has used LLMs to reason through steps from an initial to a goal state or criterion, thereby effectively reasoning in a forward direction. Nonetheless, many planning problems exhibit an inherent asymmetry such that planning backward from the goal is significantly easier -- for example, if there are bottlenecks close to the goal. We take inspiration from this observation and demonstrate that this bias holds for LLM planning as well: planning performance in one direction correlates with the planning complexity of the problem in that direction. However, our experiments also reveal systematic biases which lead to poor planning in the backward direction. With this knowledge, we propose a backward planning algorithm for LLMs that first flips the problem and then plans forward in the flipped problem. This helps avoid the backward bias, generate more diverse candidate plans, and exploit asymmetries between the forward and backward directions in planning problems -- we find that combining planning in both directions with self-verification improves the overall planning success rates by 4-24% in three planning domains.
- Abstract(参考訳): 大規模言語モデル(LLM)は、顕著な推論と計画能力を示した。
この領域のほとんどの以前の研究は、初期状態から目標状態や基準までのステップを推論するためにLSMを使用しており、それによって効果的に前方方向の推論を行っている。
にもかかわらず、多くの計画課題は、目標から後方への計画が著しく容易である、例えば、目標に近いボトルネックがある場合など、本質的に非対称性を示す。この観察からインスピレーションを得て、一方の方向での計画性能が、その方向における計画上の複雑さと相関していることを実証する。しかし、この実験では、後方への計画が貧弱になるような、体系的なバイアスも明らかにしている。この知識により、まず問題を反転させ、次に逆向きに計画するLSMの後方への計画アルゴリズムを提案します。これにより、後方へのバイアスを回避し、より多様な計画を立て、計画上の計画における前方方向と後方方向の対称性を活用できます。
関連論文リスト
- LHPF: Look back the History and Plan for the Future in Autonomous Driving [10.855426442780516]
本稿では,歴史計画情報を統合した模倣学習プランナ LHPF を紹介する。
我々のアプローチでは、歴史的計画意図をプールする歴史的意図集約モジュールを採用している。
実世界のデータと合成データの両方を用いた実験は、LHPFが既存の高度な学習ベースのプランナーに勝るだけでなく、純粋に学習ベースのプランナーがエキスパートを上回った最初の事例であることを示している。
論文 参考訳(メタデータ) (2024-11-26T09:30:26Z) - Non-myopic Generation of Language Models for Reasoning and Planning [45.75146679449453]
本稿では,モデル予測制御を利用した予測復号化手法を提案する。
我々の実験では、数学、コーディング、エージェントの幅広いタスクにおいて、大幅な改善が示されている。
論文 参考訳(メタデータ) (2024-10-22T17:13:38Z) - LASP: Surveying the State-of-the-Art in Large Language Model-Assisted AI Planning [7.36760703426119]
この調査は、言語モデルで計画する際の既存の課題を強調することを目的としている。
実施環境、最適なスケジューリング、競争と協力のゲーム、タスクの分解、推論、計画といった重要な分野に焦点を当てている。
論文 参考訳(メタデータ) (2024-09-03T11:39:52Z) - Exploring and Benchmarking the Planning Capabilities of Large Language Models [57.23454975238014]
この研究は、大規模言語モデル(LLM)の計画能力を改善するための基礎を築いた。
我々は、古典的な計画ベンチマークと自然言語シナリオの両方を含む包括的なベンチマークスイートを構築した。
本研究は,LLM計画の強化を目的としたマルチショットインコンテキスト学習について検討し,文脈長の増大と計画性能の向上の関係について検討する。
論文 参考訳(メタデータ) (2024-06-18T22:57:06Z) - Understanding the planning of LLM agents: A survey [98.82513390811148]
本調査では, LLMをベースとしたエージェント計画の体系的考察を行い, 計画能力の向上を目的とした最近の成果について報告する。
各方向について総合的な分析を行い、研究分野におけるさらなる課題について論じる。
論文 参考訳(メタデータ) (2024-02-05T04:25:24Z) - On the Prospects of Incorporating Large Language Models (LLMs) in
Automated Planning and Scheduling (APS) [23.024862968785147]
本稿では, LLMのユニークな応用に基づく8つのカテゴリを, 計画問題の諸側面に対処するために検討する。
我々のレビューから得られた重要な洞察は、LLMの真の可能性は、従来のシンボリックプランナーと統合されたときに広がります。
論文 参考訳(メタデータ) (2024-01-04T19:22:09Z) - LLM-Assist: Enhancing Closed-Loop Planning with Language-Based Reasoning [65.86754998249224]
従来のルールベースプランナとLCMベースのプランナを併用した,新しいハイブリッドプランナを開発した。
当社のアプローチでは,既存のプランナが苦労する複雑なシナリオをナビゲートし,合理的なアウトプットを生成すると同時に,ルールベースのアプローチと連携して作業する。
論文 参考訳(メタデータ) (2023-12-30T02:53:45Z) - Tree-Planner: Efficient Close-loop Task Planning with Large Language Models [63.06270302774049]
Tree-Plannerは、大きな言語モデルでタスクプランニングを3つの異なるフェーズに再構成する。
Tree-Plannerは高い効率を維持しながら最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-10-12T17:59:50Z) - AdaPlanner: Adaptive Planning from Feedback with Language Models [56.367020818139665]
大規模言語モデル(LLM)は、最近、シーケンシャルな意思決定タスクの自律的エージェントとして機能する可能性を実証している。
本研究では,LLMエージェントが環境フィードバックに応じて自己生成計画を適応的に改善することのできるクローズドループアプローチであるAdaPlannerを提案する。
幻覚を緩和するために,様々なタスク,環境,エージェント機能にまたがる計画生成を容易にするコードスタイルのLCMプロンプト構造を開発した。
論文 参考訳(メタデータ) (2023-05-26T05:52:27Z) - Divide-and-Conquer Monte Carlo Tree Search For Goal-Directed Planning [78.65083326918351]
暗黙的な逐次計画の仮定に代わるものを検討する。
本稿では,最適計画の近似を行うため,Divide-and-Conquer Monte Carlo Tree Search (DC-MCTS)を提案する。
計画順序に対するこのアルゴリズム的柔軟性は,グリッドワールドにおけるナビゲーションタスクの改善に繋がることを示す。
論文 参考訳(メタデータ) (2020-04-23T18:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。