論文の概要: Natural Language Planning via Coding and Inference Scaling
- arxiv url: http://arxiv.org/abs/2505.13252v1
- Date: Mon, 19 May 2025 15:35:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.702535
- Title: Natural Language Planning via Coding and Inference Scaling
- Title(参考訳): コーディングと推論スケーリングによる自然言語プランニング
- Authors: Rikhil Amonkar, Ronan Le Bras, Li Zhang,
- Abstract要約: プログラミングは多くの場合、計画よりも優れていますが、必ずしも優れていません。
我々の詳細なエラー解析は、一般化を妨げる生成コードの堅牢性と効率性の欠如も示している。
- 参考スコア(独自算出の注目度): 15.79089054416743
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Real-life textual planning tasks such as meeting scheduling have posed much challenge to LLMs especially when the complexity is high. While previous work primarily studied auto-regressive generation of plans with closed-source models, we systematically evaluate both closed- and open-source models, including those that scales output length with complexity during inference, in generating programs, which are executed to output the plan. We consider not only standard Python code, but also the code to a constraint satisfaction problem solver. Despite the algorithmic nature of the task, we show that programming often but not always outperforms planning. Our detailed error analysis also indicates a lack of robustness and efficiency in the generated code that hinders generalization.
- Abstract(参考訳): 会議スケジューリングなどの現実的なテキスト計画タスクは、特に複雑さが高い場合、LLMにとって大きな課題となっている。
従来の研究は主にクローズド・ソース・モデルを用いた自動回帰的計画生成について研究していたが,提案手法では,提案手法が実行されたプログラムの生成において,予測中の出力長を複雑に拡張する手法を含め,クローズド・ソース・モデルとオープンソース・モデルの両方を体系的に評価した。
我々は、標準のPythonコードだけでなく、制約満足度問題解決のためのコードも検討している。
タスクのアルゴリズム的な性質にもかかわらず、プログラミングがしばしば計画より優れているわけではないことを示す。
我々の詳細なエラー解析は、一般化を妨げる生成コードの堅牢性と効率性の欠如も示している。
関連論文リスト
- Self-Steering Language Models [113.96916935955842]
DisCIPLは、"セルフステアリング(self-steering)"言語モデルのメソッドである。
DisCIPLはPlannerモデルを使用してタスク固有の推論プログラムを生成する。
我々の研究は、高度に並列化されたモンテカルロ推論戦略の設計空間を開く。
論文 参考訳(メタデータ) (2025-04-09T17:54:22Z) - Classical Planning with LLM-Generated Heuristics: Challenging the State of the Art with Python Code [8.971234046933349]
大規模言語モデル(LLM)は、計画タスクの詳細な定義を伴っても、確実に計画に失敗する。
サイズが大きくなるような配布外タスクであっても、LCMを使って正確な計画を生成する方法を示す。
論文 参考訳(メタデータ) (2025-03-24T15:50:20Z) - Plan-over-Graph: Towards Parallelable LLM Agent Schedule [53.834646147919436]
大規模言語モデル(LLM)はタスク計画の推論において例外的な能力を示した。
本稿では,まず実生活のテキストタスクを実行可能なサブタスクに分解し,抽象的なタスクグラフを構築する,新しいパラダイムであるプランオーバーグラフを提案する。
モデルはこのタスクグラフを入力として理解し、並列実行計画を生成する。
論文 参考訳(メタデータ) (2025-02-20T13:47:51Z) - Code Simulation as a Proxy for High-order Tasks in Large Language Models [6.71786454125056]
我々は、Large Language Models (LLM) の能力を評価するために、自然主義的および合成的推論タスクのペアを収集する。
我々は、プログラミングにおける共通構造を、自然主義的推論タスクの構成要素の1つとして活用する。
我々の貢献は、手作りの人間注記問題に対するスケーラブルな補完として、LLMの推論能力を総合的にテストすることの上に成り立っている。
論文 参考訳(メタデータ) (2025-02-05T19:30:28Z) - Interactive and Expressive Code-Augmented Planning with Large Language Models [62.799579304821826]
大きな言語モデル(LLM)は、常識的推論と対話的な意思決定において強力な能力を示す。
近年,制御フローなどのコード・アジャセント技術を用いてLCM出力を構造化し,計画性能を向上させる技術が提案されている。
完全コード表現で動的なLEM計画手法であるREPL-Planを提案する。
論文 参考訳(メタデータ) (2024-11-21T04:23:17Z) - Unlocking Reasoning Potential in Large Langauge Models by Scaling Code-form Planning [94.76546523689113]
CodePlanは、テキストコード形式の計画を生成し、追跡するフレームワークで、高いレベルの構造化された推論プロセスの概要を擬似コードで示します。
CodePlanは、洗練された推論タスク固有のリッチなセマンティクスと制御フローを効果的にキャプチャする。
反応を直接生成するのに比べて25.1%の相対的な改善が達成されている。
論文 参考訳(メタデータ) (2024-09-19T04:13:58Z) - Learning Logic Specifications for Policy Guidance in POMDPs: an
Inductive Logic Programming Approach [57.788675205519986]
我々は任意の解法によって生成されるPOMDP実行から高品質なトレースを学習する。
我々は、データと時間効率のIndu Logic Programming(ILP)を利用して、解釈可能な信念に基づくポリシー仕様を生成する。
ASP(Answer Set Programming)で表現された学習は、ニューラルネットワークよりも優れた性能を示し、より少ない計算時間で最適な手作りタスクに類似していることを示す。
論文 参考訳(メタデータ) (2024-02-29T15:36:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。