論文の概要: Scattered Forest Search: Smarter Code Space Exploration with LLMs
- arxiv url: http://arxiv.org/abs/2411.05010v1
- Date: Tue, 22 Oct 2024 01:58:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-17 09:33:00.450828
- Title: Scattered Forest Search: Smarter Code Space Exploration with LLMs
- Title(参考訳): Scattered Forest Search: LLMによるよりスマートなコード空間探索
- Authors: Jonathan Light, Yue Wu, Yiyou Sun, Wenchao Yu, Yanchi liu, Xujiang Zhao, Ziniu Hu, Haifeng Chen, Wei Cheng,
- Abstract要約: Scattered Forest Searchを導入し,ソリューションを探索しながら解の多様性を高める。
HumanEval、MBPP、APPS、CodeContests、Leetcodeの実験では、大幅なパフォーマンス向上が示されている。
- 参考スコア(独自算出の注目度): 55.71665969800222
- License:
- Abstract: We propose a novel approach to scaling LLM inference for code generation. We frame code generation as a black box optimization problem within the code space, and employ optimization-inspired techniques to enhance exploration. Specifically, we introduce Scattered Forest Search to enhance solution diversity while searching for solutions. Our theoretical analysis illustrates how these methods avoid local optima during optimization. Extensive experiments on HumanEval, MBPP, APPS, CodeContests, and Leetcode reveal significant performance improvements. For instance, our method achieves a pass@1 rate of 67.1% on HumanEval+ and 87.2% on HumanEval with GPT-3.5, marking improvements of 8.6% and 4.3% over the state-of-the-art, while also halving the iterations needed to find the correct solution. Furthermore, our method scales more efficiently than existing search techniques, including tree search, line search, and repeated sampling.
- Abstract(参考訳): コード生成のためのLLM推論のスケーリング手法を提案する。
コード空間内でのブラックボックス最適化問題としてコード生成をフレーム化し、探索を強化するために最適化に着想を得た手法を採用する。
具体的には,ソリューションを探索しながら,ソリューションの多様性を高めるために,Scattered Forest Searchを導入する。
本稿の理論解析は,最適化時の局所最適化を回避する方法を示している。
HumanEval、MBPP、APPS、CodeContests、Leetcodeに関する大規模な実験は、大幅なパフォーマンス改善を示している。
例えば、HumanEval+では67.1%、HumanEvalでは87.2%、GPT-3.5では8.6%、最先端では4.3%、そして正しい解を見つけるのに必要なイテレーションは半分である。
さらに,本手法は,木探索,線探索,繰り返しサンプリングなど,既存の探索手法よりも効率よくスケールする。
関連論文リスト
- RethinkMCTS: Refining Erroneous Thoughts in Monte Carlo Tree Search for Code Generation [65.5353313491402]
本稿では,モンテカルロ木探索(MCTS)アルゴリズムを用いて,コードを生成する前に思考レベルの探索を行うRethinkMCTSを紹介する。
我々は,検索中の誤った思考を洗練させるために,微動コード実行フィードバックからの言語フィードバックを構築した。
RethinkMCTSは従来の検索ベースおよびフィードバックベースのコード生成ベースラインよりも優れていることを実証する。
論文 参考訳(メタデータ) (2024-09-15T02:07:28Z) - Search-Based LLMs for Code Optimization [16.843870288512363]
開発者によって書かれたコードは、通常効率上の問題に悩まされ、様々なパフォーマンス上のバグを含んでいる。
最近の研究は、タスクをシーケンス生成問題とみなし、大規模言語モデル(LLM)のようなディープラーニング(DL)技術を活用している。
改良された最適化手法の反復的洗練と発見を可能にする,SBLLM という検索ベース LLM フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-22T06:59:46Z) - A Three-Stage Algorithm for the Closest String Problem on Artificial and Real Gene Sequences [39.58317527488534]
ストロースト文字列問題(Closest String Problem)は、与えられた文字列の集合に属するすべての列から最小距離の文字列を見つけることを目的としたNPハード問題である。
本稿では,次の3段階のアルゴリズムを提案する。まず,検索領域を効果的に見つけるために,検索空間を削減するために,新しいアルファベットプルーニング手法を適用する。
第二に、解を見つけるためのビーム探索の変種を用いる。この方法は、部分解の期待距離スコアに基づいて、新たに開発された誘導関数を利用する。
論文 参考訳(メタデータ) (2024-07-17T21:26:27Z) - Iterative or Innovative? A Problem-Oriented Perspective for Code Optimization [81.88668100203913]
大規模言語モデル(LLM)は、幅広いプログラミングタスクを解く上で強力な能力を示している。
本稿では,パフォーマンス向上に着目したコード最適化について検討する。
論文 参考訳(メタデータ) (2024-06-17T16:10:10Z) - Discovering Preference Optimization Algorithms with and for Large Language Models [50.843710797024805]
オフライン優先最適化は、LLM(Large Language Model)出力の品質を向上・制御するための重要な手法である。
我々は、人間の介入なしに、新しい最先端の選好最適化アルゴリズムを自動で発見する客観的発見を行う。
実験は、ロジスティックと指数的損失を適応的にブレンドする新しいアルゴリズムであるDiscoPOPの最先端性能を示す。
論文 参考訳(メタデータ) (2024-06-12T16:58:41Z) - A new approach for solving global optimization and engineering problems
based on modified Sea Horse Optimizer [1.84493167882938]
シーホース(シーホース、英: Sea Horse)は、海馬が示す様々な知的行動をエミュレートするメタヒューリスティックなアルゴリズムである。
海馬の微妙な移動を模倣するため、SHOは対数的ヘリカル方程式とレヴィ飛行を統合する。
本研究は,mSHOと呼ばれるSHOアルゴリズムの頑健かつ高性能な変種を紹介する。
論文 参考訳(メタデータ) (2024-02-21T11:28:00Z) - A GPU-Accelerated Moving-Horizon Algorithm for Training Deep
Classification Trees on Large Datasets [13.02279265869312]
連続的な特徴を持つ分類木(MH-DEOCT)に対する移動水平微分アルゴリズムを提案する。
本手法は,隣接サンプル間の重複探索を除去する離散木復号法により構成する。
MH-DEOCTは、トレーニングとテストのほぼ最適性能を達成する。
論文 参考訳(メタデータ) (2023-11-12T20:34:00Z) - Monte Carlo Tree Descent for Black-Box Optimization [10.698553177585973]
我々は、より高速な最適化のためにサンプルベース降下をさらに統合する方法を研究する。
我々は,モンテカルロ探索木の拡張手法を,頂点における新しい降下法を用いて設計する。
提案アルゴリズムは,多くの挑戦的ベンチマーク問題において,最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2022-11-01T22:45:10Z) - Efficient Non-Parametric Optimizer Search for Diverse Tasks [93.64739408827604]
興味のあるタスクを直接検索できる,スケーラブルで汎用的なフレームワークを初めて提示する。
基礎となる数学表現の自然木構造に着想を得て、空間を超木に再配置する。
我々は,モンテカルロ法を木探索に適用し,レジェクションサンプリングと等価形状検出を備える。
論文 参考訳(メタデータ) (2022-09-27T17:51:31Z) - Sub-linear Regret Bounds for Bayesian Optimisation in Unknown Search
Spaces [63.22864716473051]
本稿では,反復により探索空間を拡大(およびシフト)する新しいBOアルゴリズムを提案する。
理論的には、どちらのアルゴリズムにおいても、累積的後悔は線形以下の速度で増大する。
論文 参考訳(メタデータ) (2020-09-05T14:24:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。