論文の概要: Documentation Retrieval Improves Planning Language Generation
- arxiv url: http://arxiv.org/abs/2509.19931v1
- Date: Wed, 24 Sep 2025 09:38:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.7605
- Title: Documentation Retrieval Improves Planning Language Generation
- Title(参考訳): ドキュメンテーション検索は計画言語生成を改善する
- Authors: Renxiang Wang, Li Zhang,
- Abstract要約: 50Bパラメータ未満のほとんどのオープンソースモデルの性能は、これらの言語の低リソース性のためゼロに近いと報告されている。
ドキュメント検索とモジュール化されたコード生成とエラー修正を統合した,一連の軽量パイプラインを通じて,パフォーマンスを大幅に向上します。
- 参考スコア(独自算出の注目度): 3.90727941420584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Certain strong LLMs have shown promise for zero-shot formal planning by generating planning languages like PDDL. Yet, performance of most open-source models under 50B parameters has been reported to be close to zero due to the low-resource nature of these languages. We significantly improve their performance via a series of lightweight pipelines that integrates documentation retrieval with modular code generation and error refinement. With models like Llama-4-Maverick, our best pipeline improves plan correctness from 0\% to over 80\% on the common BlocksWorld domain. However, while syntactic errors are substantially reduced, semantic errors persist in more challenging domains, revealing fundamental limitations in current models' reasoning capabilities.\footnote{Our code and data can be found at https://github.com/Nangxxxxx/PDDL-RAG
- Abstract(参考訳): 一部の強力なLCMはPDDLのような計画言語を生成することで、ゼロショットのフォーマルプランニングを約束している。
しかし、50Bパラメータ未満のほとんどのオープンソースモデルの性能は、これらの言語の低リソース性のためゼロに近いと報告されている。
ドキュメント検索とモジュール化されたコード生成とエラー修正を統合した,一連の軽量パイプラインを通じて,パフォーマンスを大幅に向上します。
Llama-4-Maverickのようなモデルによって、私たちの最高のパイプラインは、共通BlocksWorldドメインで計画の正しさを0\%から80%以上改善します。
しかし、構文エラーは大幅に減少するが、セマンティックエラーはより困難な領域に留まり、現在のモデルの推論能力に根本的な制限が生じる。
https://github.com/Nangxxxxx/PDDL-RAG
関連論文リスト
- Addressing the Challenges of Planning Language Generation [6.209697341255856]
我々は,500億パラメータ未満のオープンソースモデルを用いて,PDDL生成パイプラインを8種類設計し,評価する。
その結果,高リソース言語ラッパーや文法付き制約付き復号法などの直感的な手法は性能を低下させるが,解法や計画検証器からのフィードバックによる修正などの推論時間スケーリング手法は性能を2倍以上に抑えることがわかった。
論文 参考訳(メタデータ) (2025-05-20T17:25:23Z) - Type-Constrained Code Generation with Language Models [51.03439021895432]
本稿では,型システムを利用してコード生成を誘導する型制約デコード手法を提案する。
そこで本研究では,新しい接頭辞オートマトンと,在来型を探索する手法を開発し,LLM生成コードに適切な型付けを強制するための健全なアプローチを構築した。
提案手法は,コード合成,翻訳,修復作業において,コンパイルエラーを半分以上削減し,機能的正しさを著しく向上させる。
論文 参考訳(メタデータ) (2025-04-12T15:03:00Z) - Enhancing Code Generation for Low-Resource Languages: No Silver Bullet [55.39571645315926]
大規模言語モデル(LLM)は、プログラミング言語の構文、意味論、使用パターンを学ぶために、大規模で多様なデータセットに依存している。
低リソース言語では、そのようなデータの限られた可用性は、モデルを効果的に一般化する能力を損なう。
本稿では,低リソース言語におけるLLMの性能向上のためのいくつかの手法の有効性を実証研究する。
論文 参考訳(メタデータ) (2025-01-31T12:23:28Z) - GALLa: Graph Aligned Large Language Models for Improved Source Code Understanding [35.536478348255315]
最近のコード言語モデルは数十億のパラメータに拡張されているが、ソースコードはテキストトークンとしてのみモデル化されている。
GALLa - Graph Aligned Large Language Modelsで両世界のベストを尽くします。
論文 参考訳(メタデータ) (2024-09-06T10:57:34Z) - Unlocking the Potential of Model Merging for Low-Resource Languages [66.7716891808697]
大規模言語モデルを新しい言語に適応させるには、通常、継続事前訓練(CT)と、教師付き微調整(SFT)が含まれる。
我々は低リソース言語の代替としてモデルマージを提案し、異なる機能を持つモデルを追加トレーニングなしで単一のモデルに組み合わせる。
Llama-2-7Bをベースとした実験により、モデルマージはタスク解決能力の低い低リソース言語に対して、極めて少ないデータを持つシナリオにおいて、CT-then-SFTよりも優れていることが実証された。
論文 参考訳(メタデータ) (2024-07-04T15:14:17Z) - GlotLID: Language Identification for Low-Resource Languages [51.38634652914054]
GlotLID-M は広い範囲、信頼性、効率性のデシラタを満たす LID モデルである。
1665の言語を識別し、以前の作業に比べてカバー範囲が大幅に増加した。
論文 参考訳(メタデータ) (2023-10-24T23:45:57Z) - Leveraging Pre-trained Large Language Models to Construct and Utilize
World Models for Model-based Task Planning [39.29964085305846]
事前訓練済みの大規模言語モデルをプランナーとして直接使用する方法は、計画の正確性に限界があるため、現在は実用的ではない。
本研究では,ドメイン定義言語(PDDL)の計画において,明示的な世界(ドメイン)モデルを構築し,ドメインに依存しないプランナで計画する新たなパラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-24T08:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。