論文の概要: Optimizing Prompt Sequences using Monte Carlo Tree Search for LLM-Based Optimization
- arxiv url: http://arxiv.org/abs/2508.05995v1
- Date: Fri, 08 Aug 2025 04:01:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.072459
- Title: Optimizing Prompt Sequences using Monte Carlo Tree Search for LLM-Based Optimization
- Title(参考訳): LLM最適化のためのモンテカルロ木探索を用いたプロンプト列の最適化
- Authors: Fei Xu Yu, Gina Adam, Nathaniel D. Bastian, Tian Lan,
- Abstract要約: 大規模言語モデル(LLM)は、コード生成と構造化推論において顕著な能力を示した。
本稿では,モンテカルロ木探索によって導かれる逐次決定過程として,選択を高速化するニューラルシンボリックフレームワークを提案する。
本手法は,コード生成品質の向上を目的として,複数ステップのプロンプトシーケンスを探索・精査する。
- 参考スコア(独自算出の注目度): 20.44067161623662
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have demonstrated remarkable capabilities in code generation and structured reasoning; however, their performance often degrades on complex tasks that require consistent multi-step planning. Recent work has explored combining LLMs with Monte Carlo Tree Search (MCTS), yet existing approaches primarily focus on generating heuristic-based code for optimization or target simpler tasks where correctness alone is sufficient. In this work, we propose MCTS-OPS, a novel neural-symbolic framework that formulates prompt selection as a sequential decision process guided by MCTS. Our method explores and refines multi-step prompt sequences for the goal of improving code generation quality and enhancing the problem-solving capabilities of LLMs in general optimization. Experiments on network optimization show significant improvement over the baselines, both in the success rate of executing the generated code and in the optimization results with the specified objective and constraints (2$\sim$4$\times$ higher reward and 3$\times$ lower standard deviation). Moreover, it improves the chance of attaining the optimal solution by about 10\% of cases, compared to baseline methods in hard problems. These results highlight the promise of combining symbolic planning with LLMs for robust, high-quality code generation in complex domains.
- Abstract(参考訳): 大規模言語モデル(LLM)は、コード生成と構造化推論において顕著な能力を示しているが、その性能は、一貫した多段階計画を必要とする複雑なタスクで劣化することが多い。
最近の研究は、LCMとMCTS(Monte Carlo Tree Search)の組み合わせを検討したが、既存のアプローチは主に、最適化のためのヒューリスティックなコードを生成することや、正確性だけで十分である単純なタスクをターゲットにしている。
そこで本研究では,MCTSによって導かれる逐次決定過程として,プロンプト選択を定式化する新しいニューラルシンボリック・フレームワークであるMCTS-OPSを提案する。
本手法は,コード生成品質の向上とLLMの問題解決能力の向上を目標として,複数ステップのプロンプトシーケンスを探索・精査する。
ネットワーク最適化の実験では、生成されたコードの実行の成功率と、指定された目的と制約による最適化結果の両方において、ベースラインよりも大幅に改善されている(2$\sim$4$\times$高報酬と3$\times$低標準偏差)。
さらに, 難題の基準法に比べて, 最適解が得られる確率を約10倍に向上させる。
これらの結果は、複雑なドメインにおける堅牢で高品質なコード生成のために、シンボルプランニングとLLMを組み合わせるという約束を強調している。
関連論文リスト
- Collab: Controlled Decoding using Mixture of Agents for LLM Alignment [90.6117569025754]
人間のフィードバックからの強化学習は、大規模言語モデルを整合させる効果的な手法として現れてきた。
制御された復号化は、再訓練せずに推論時にモデルを整列するメカニズムを提供する。
本稿では,既存の既成のLCMポリシを活用するエージェントベースのデコーディング戦略の混合を提案する。
論文 参考訳(メタデータ) (2025-03-27T17:34:25Z) - Large Scale Multi-Task Bayesian Optimization with Large Language Models [29.12351845364205]
本稿では,大規模言語モデル(LLM)を活用して,従来の最適化軌道から学習し,改良する手法を提案する。
本手法は,データベースクエリ最適化と抗菌ペプチドの設計の2つの異なる領域で評価する。
論文 参考訳(メタデータ) (2025-03-11T07:46:19Z) - Improving Parallel Program Performance with LLM Optimizers via Agent-System Interfaces [9.880183350366792]
並列プログラムのパフォーマンスを改善する上で重要な課題は、タスクをプロセッサやデータに効率的にメモリにマッピングすることだ。
生成最適化によるマッパー開発を自動化するフレームワークを提案する。
提案手法では,9つのベンチマークで1.34倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-10-21T04:08:37Z) - Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System [75.25394449773052]
大規模言語モデル (LLM) に基づくマルチエージェントシステム (MAS) は協調的問題解決において顕著な可能性を示している。
通信効率の低下、スケーラビリティの低下、効果的なパラメータ更新方法の欠如などです。
本稿では,コミュニケーション効率とタスク効率を両立させ,これらの課題に対処する新しいフレームワークOptimaを提案する。
論文 参考訳(メタデータ) (2024-10-10T17:00:06Z) - Optimized Monte Carlo Tree Search for Enhanced Decision Making in the FrozenLake Environment [0.0]
Monte Carlo Tree Search (MCTS) は複雑な意思決定問題を解決する強力なアルゴリズムである。
本稿では,古典的強化学習課題であるFrozenLake環境に適用したMCTS実装を提案する。
論文 参考訳(メタデータ) (2024-09-25T05:04:53Z) - Search-Based LLMs for Code Optimization [16.843870288512363]
開発者によって書かれたコードは、通常効率上の問題に悩まされ、様々なパフォーマンス上のバグを含んでいる。
最近の研究は、タスクをシーケンス生成問題とみなし、大規模言語モデル(LLM)のようなディープラーニング(DL)技術を活用している。
改良された最適化手法の反復的洗練と発見を可能にする,SBLLM という検索ベース LLM フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-22T06:59:46Z) - Unleashing the Potential of Large Language Models as Prompt Optimizers: Analogical Analysis with Gradient-based Model Optimizers [108.72225067368592]
本稿では,大規模言語モデル(LLM)に基づくプロンプトの設計について検討する。
モデルパラメータ学習における2つの重要な要素を同定する。
グラディエントにインスパイアされた Prompt ベースの GPO を開発した。
論文 参考訳(メタデータ) (2024-02-27T15:05:32Z) - Large Language Models as Optimizers [106.52386531624532]
本稿では,大規模言語モデル (LLM) をプロンプトとして活用するためのシンプルで効果的な手法である Prompting (OPRO) を提案する。
各最適化ステップにおいて、LLMは、前述した値を含むプロンプトから新しい解を生成する。
OPROにより最適化された最良のプロンプトは、GSM8Kで最大8%、Big-Bench Hardタスクで最大50%向上することを示した。
論文 参考訳(メタデータ) (2023-09-07T00:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。