論文の概要: TreeCoder: Systematic Exploration and Optimisation of Decoding and Constraints for LLM Code Generation
- arxiv url: http://arxiv.org/abs/2511.22277v1
- Date: Thu, 27 Nov 2025 09:59:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.496063
- Title: TreeCoder: Systematic Exploration and Optimisation of Decoding and Constraints for LLM Code Generation
- Title(参考訳): TreeCoder: LLMコード生成のためのデコードと制約の体系的探索と最適化
- Authors: Henrijs Princis, Arindam Sharma, Cristina David,
- Abstract要約: TreeCoderは、デコーディングを候補プログラムのツリー検索として表現する。
TreeCoderは、CodeLlama、Mistral、DeepSeekなどのオープンソースモデルの精度を一貫して改善する。
- 参考スコア(独自算出の注目度): 2.2940141855172036
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have shown remarkable ability to generate code, yet their outputs often violate syntactic or semantic constraints when guided only through natural language prompts. We introduce TreeCoder, the most general and flexible framework to date for exploring decoding strategies, constraints, and hyperparameters in LLMs, and use it in code generation to enforce correctness and structure during decoding rather than relying on prompt engineering. TreeCoder represents decoding as a tree search over candidate programs, where both decoding strategies and constraint functions - such as style, syntax, execution - are treated as first-class, optimisable components. This design enables systematic exploration and automatic tuning of decoding configurations using standard optimisation techniques. Experiments on the MBPP (Python) and SQL-Spider benchmarks show that TreeCoder consistently improves accuracy across open-source models such as CodeLlama, Mistral and DeepSeek, often outperforming their unconstrained baselines by considerable margins.
- Abstract(参考訳): 大規模言語モデル(LLM)は、コードを生成する素晴らしい能力を示しているが、自然言語プロンプトを通してのみガイドされる場合、その出力は構文的または意味的な制約に反することが多い。
私たちは、LLMのデコード戦略、制約、ハイパーパラメータを探索する上で、これまでで最も汎用的で柔軟なフレームワークであるTreeCoderを紹介します。
TreeCoderは、デコード戦略と制約関数(スタイル、構文、実行など)の両方を第一級の最適化可能なコンポーネントとして扱う、候補プログラムに対するツリー検索としてデコードを表す。
この設計は、標準的な最適化手法を用いて、デコード構成の体系的な探索と自動チューニングを可能にする。
MBPP(Python)とSQL-Spiderベンチマークの実験は、TreeCoderがCodeLlama、Mistral、DeepSeekといったオープンソースモデルで一貫して精度を向上し、制約のないベースラインをかなりのマージンで上回っていることを示している。
関連論文リスト
- IFEvalCode: Controlled Code Generation [69.28317223249358]
本稿では,Code LLMの命令追従能力を改善するために,前方および後方制約生成を提案する。
IFEvalCodeは、7つのプログラミング言語の1.6Kテストサンプルからなる多言語ベンチマークである。
論文 参考訳(メタデータ) (2025-07-30T08:08:48Z) - CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
CodeGRAGは、制御フローとそれらのデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミングドメインの知識をよりよく解釈する。
CodeGRAGはLLMのコード生成能力を大幅に改善し、言語間コード生成のパフォーマンス向上も実現している。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - Comments as Natural Logic Pivots: Improve Code Generation via Comment Perspective [85.48043537327258]
本稿では, MANGO (comMents As Natural loGic pivOts) を提案する。
その結果、MANGOは強いベースラインに基づいてコードパス率を大幅に改善することがわかった。
論理的なコメントの復号化戦略の堅牢性は、考えの連鎖よりも顕著に高い。
論文 参考訳(メタデータ) (2024-04-11T08:30:46Z) - SparseCoder: Identifier-Aware Sparse Transformer for File-Level Code
Summarization [51.67317895094664]
本稿では,大規模なソースコードプロジェクトの理解と維持を支援するファイルレベルのコード要約について検討する。
長いコードシーケンスを効果的に処理するための識別子対応スパース変換器であるSparseCoderを提案する。
論文 参考訳(メタデータ) (2024-01-26T09:23:27Z) - Bridging Code Semantic and LLMs: Semantic Chain-of-Thought Prompting for
Code Generation [22.219645213202178]
本稿では,SeCoT というコードの意味情報を抽出する "Semantic Chain-of-Thought" 手法を提案する。
本研究では,SeCoTが最先端の性能を実現し,大規模モデルやコード生成の可能性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-10-16T05:09:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。