論文の概要: Population-Evolve: a Parallel Sampling and Evolutionary Method for LLM Math Reasoning
- arxiv url: http://arxiv.org/abs/2512.19081v1
- Date: Mon, 22 Dec 2025 06:42:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.642484
- Title: Population-Evolve: a Parallel Sampling and Evolutionary Method for LLM Math Reasoning
- Title(参考訳): LLM数学推論のための並列サンプリング法と進化法
- Authors: Yanzhi Zhang, Yitong Duan, Zhaoxi Zhang, Jiyan He, Shuxin Zheng,
- Abstract要約: Population-Evolveは、大規模言語モデルの推論を最適化するために、遺伝的アルゴリズムにインスパイアされたトレーニング不要の手法である。
我々は、遺伝的アルゴリズムのレンズを通して既存のテスト時間スケーリング戦略を解釈する統一フレームワークを確立する。
- 参考スコア(独自算出の注目度): 10.610329942727699
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Test-time scaling has emerged as a promising direction for enhancing the reasoning capabilities of Large Language Models in last few years. In this work, we propose Population-Evolve, a training-free method inspired by Genetic Algorithms to optimize LLM reasoning. Our approach maintains a dynamic population of candidate solutions for each problem via parallel reasoning. By incorporating an evolve prompt, the LLM self-evolves its population in all iterations. Upon convergence, the final answer is derived via majority voting. Furthermore, we establish a unification framework that interprets existing test-time scaling strategies through the lens of genetic algorithms. Empirical results demonstrate that Population-Evolve achieves superior accuracy with low performance variance and computational efficiency. Our findings highlight the potential of evolutionary strategies to unlock the reasoning power of LLMs during inference.
- Abstract(参考訳): テストタイムのスケーリングは、ここ数年で大規模言語モデルの推論能力を高めるための有望な方向として現れてきた。
本研究では,LLM推論を最適化するために,遺伝的アルゴリズムにインスパイアされた学習不要なPopulation-Evolveを提案する。
提案手法は, 並列推論による各問題に対する候補解の動的集団を維持している。
進化的なプロンプトを組み込むことで、LLMは全イテレーションでその個体群を自己進化させる。
収束すると、最終答は多数決によって導かれる。
さらに、遺伝的アルゴリズムのレンズを通して既存のテストタイムスケーリング戦略を解釈する統一フレームワークを確立する。
実験結果から,Population-Evolveは性能のばらつきが低く,計算効率も良好であることがわかった。
本研究は,LLMの推論能力を高めるための進化的戦略の可能性を明らかにするものである。
関連論文リスト
- Multi-Agent Evolve: LLM Self-Improve through Co-evolution [53.00458074754831]
強化学習(RL)は、大規模言語モデル(LLM)の推論能力を高める大きな可能性を証明している。
近年のSelf-Play RL法は,ゲームやGoのパラダイムの成功に触発されて,人間に注釈を付けることなくLSM推論能力を向上することを目指している。
数学,推論,一般知識Q&Aなど多種多様な課題の解決において,LLMが自己発展できるフレームワークであるMulti-Agent Evolve(MAE)を提案する。
論文 参考訳(メタデータ) (2025-10-27T17:58:02Z) - REvolution: An Evolutionary Framework for RTL Generation driven by Large Language Models [2.127921199213507]
LLM(Large Language Models)は、レジスター-トランスファーレベル(RTL)コード生成に使用される。
本稿では,進化計算(EC)とLLMを組み合わせて自動RTL生成と最適化を行うフレームワークであるRevolutionを紹介する。
論文 参考訳(メタデータ) (2025-10-24T12:50:35Z) - Learning to Refine: Self-Refinement of Parallel Reasoning in LLMs [102.48588475875749]
本稿では,新しい並列テスト時間スケーリングフレームワークであるGenerative Self-Refinement (GSR)を紹介する。
GSRは一連の候補応答を並列に生成し、その後自己精製を行い、新しい優れた解を合成する。
提案手法は,5つの数学ベンチマークにおいて,最先端性能を実現する。
論文 参考訳(メタデータ) (2025-08-27T06:51:48Z) - Evolutionary thoughts: integration of large language models and evolutionary algorithms [2.3633885460047765]
大規模言語モデル(LLM)は、自然言語とコードの両方を理解し、生成する際、注目すべき機能を明らかにしている。
本稿では,拡張解空間のより集中的な探索を可能にする進化的探索戦略を提案する。
論文 参考訳(メタデータ) (2025-05-09T03:32:18Z) - PAIR: A Novel Large Language Model-Guided Selection Strategy for Evolutionary Algorithms [2.3244035825657963]
本稿では、PAIR(Preference-Aligned individual Reciprocity)を紹介する。
PAIRは人間に似た配偶者選択をエミュレートし、進化的アルゴリズム(EA)におけるペアリングプロセスにインテリジェンスを導入する
論文 参考訳(メタデータ) (2025-03-05T07:45:56Z) - Evolving Deeper LLM Thinking [61.61227021098086]
提案したアプローチであるMind Evolutionは、言語モデルを使用して、候補応答を生成し、再結合し、洗練する。
Mind Evolutionは自然言語計画タスクにおいて、Best-of-NやSequential Revisionといった他の推論戦略よりも大幅に優れています。
論文 参考訳(メタデータ) (2025-01-17T00:41:44Z) - Refining Answer Distributions for Improved Large Language Model Reasoning [24.67507932821155]
本稿では,Large Language Models (LLMs) の推論能力を高めるための,新しいアルゴリズムフレームワークであるRefined Answer Distributionsを提案する。
我々のアプローチは、モンテカルロ近似(英語版)を形成するための反復的なサンプリング戦略と見なすことができる。
論文 参考訳(メタデータ) (2024-12-17T19:45:53Z) - Large Language Model-Aided Evolutionary Search for Constrained Multiobjective Optimization [15.476478159958416]
我々は,制約付き多目的最適化問題に対する進化探索を強化するために,大規模言語モデル(LLM)を用いる。
私たちの目標は、進化の集団の収束を早めることです。
論文 参考訳(メタデータ) (2024-05-09T13:44:04Z) - A Survey on Self-Evolution of Large Language Models [116.54238664264928]
大規模言語モデル(LLM)は、様々な分野やインテリジェントエージェントアプリケーションにおいて大きく進歩している。
この問題に対処するために、LLMが自律的に獲得し、洗練し、モデル自身によって生成された経験から学ぶことができる自己進化的アプローチが急速に成長している。
論文 参考訳(メタデータ) (2024-04-22T17:43:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。