論文の概要: ShinkaEvolve: Towards Open-Ended And Sample-Efficient Program Evolution
- arxiv url: http://arxiv.org/abs/2509.19349v1
- Date: Wed, 17 Sep 2025 17:49:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.501601
- Title: ShinkaEvolve: Towards Open-Ended And Sample-Efficient Program Evolution
- Title(参考訳): ShinkaEvolve: オープンソースでサンプル効率の良いプログラム進化を目指す
- Authors: Robert Tjarko Lange, Yuki Imajuku, Edoardo Cetin,
- Abstract要約: ShinkaEvolveは、大規模言語モデル(LLM)を活用して、最先端のパフォーマンスと前例のない効率で科学的発見を促進するオープンソースフレームワークである。
本稿では,探索と利用のバランスをとる親サンプリング技術,効率的な探索空間探索のためのコードノベルティ・リジェクション・サンプリング,および包括的アンサンブル選択戦略を紹介する。
- 参考スコア(独自算出の注目度): 21.572727335985885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce ShinkaEvolve: a new open-source framework leveraging large language models (LLMs) to advance scientific discovery with state-of-the-art performance and unprecedented efficiency. Recent advances in scaling inference time compute of LLMs have enabled significant progress in generalized scientific discovery. These approaches rely on evolutionary agentic harnesses that leverage LLMs as mutation operators to generate candidate solutions. However, current code evolution methods suffer from critical limitations: they are sample inefficient, requiring thousands of samples to identify effective solutions, and remain closed-source, hindering broad adoption and extension. ShinkaEvolve addresses these limitations, introducing three key innovations: a parent sampling technique balancing exploration and exploitation, code novelty rejection-sampling for efficient search space exploration, and a bandit-based LLM ensemble selection strategy. We evaluate ShinkaEvolve across diverse tasks, demonstrating consistent improvements in sample efficiency and solution quality. ShinkaEvolve discovers a new state-of-the-art circle packing solution using only 150 samples, designs high-performing agentic harnesses for AIME mathematical reasoning tasks, identifies improvements to ALE-Bench competitive programming solutions, and discovers novel mixture-of-expert load balancing loss functions that illuminate the space of optimization strategies. Our results demonstrate that ShinkaEvolve achieves broad applicability with exceptional sample efficiency. By providing open-source accessibility and cost-efficiency, this work democratizes open-ended discovery across diverse computational problems.
- Abstract(参考訳): 我々は,大規模言語モデル(LLM)を活用した新たなオープンソースフレームワークであるShinkaEvolveを紹介し,最先端の性能と前例のない効率で科学的発見を促進する。
LLMのスケーリング推定時間計算の最近の進歩は、一般化された科学的発見において大きな進歩をもたらした。
これらのアプローチは、LSMを突然変異演算子として利用して候補解を生成する進化的エージェントハーネスに依存している。
しかし、現在のコード進化手法は、サンプル非効率であり、効果的なソリューションを特定するために何千ものサンプルを必要とし、クローズドソースのままであり、広く採用と拡張を妨げる。
ShinkaEvolveはこれらの制限に対処し、探索とエクスプロイトのバランスをとる親サンプリング技術、効率的な探索空間探索のためのコードノベルティ拒否サンプリング、およびバンドベースのLLMアンサンブル選択戦略の3つの重要なイノベーションを紹介した。
我々は,S ShinkaEvolveを多種多様なタスクで評価し,サンプル効率とソリューション品質の一貫した改善を実証した。
ShinkaEvolveは、150のサンプルしか使用せず、AIMEの数学的推論タスクのための高性能なエージェントハーネスを設計し、ALE-Bench競合プログラミングソリューションの改善を特定し、最適化戦略の空間を照らし出す新しい混合負荷分散損失関数を発見した。
以上の結果から,S ShinkaEvolveは例外的な試料効率で広範囲に適用可能であることが示唆された。
この研究は、オープンソースのアクセシビリティとコスト効率を提供することで、様々な計算問題にまたがるオープンエンドな発見を民主化する。
関連論文リスト
- ORMind: A Cognitive-Inspired End-to-End Reasoning Framework for Operations Research [56.961539386979354]
ORMindは認知にインスパイアされたフレームワークで、反ファクト推論を通じて最適化を強化する。
提案手法は,要求を数学的モデルや実行可能なコードに変換するエンド・ツー・エンドのワークフローを実装し,人間の認識をエミュレートする。
現在はLenovoのAIアシスタントで内部でテストされており、ビジネスとコンシューマの両方の最適化機能を強化する予定である。
論文 参考訳(メタデータ) (2025-06-02T05:11:21Z) - Preference Optimization for Combinatorial Optimization Problems [54.87466279363487]
強化学習(Reinforcement Learning, RL)は、ニューラルネットワーク最適化のための強力なツールとして登場した。
大幅な進歩にもかかわらず、既存のRLアプローチは報酬信号の減少や大規模な行動空間における非効率な探索といった課題に直面している。
統計的比較モデルを用いて定量的報酬信号を定性的選好信号に変換する新しい手法であるPreference Optimizationを提案する。
論文 参考訳(メタデータ) (2025-05-13T16:47:00Z) - Un-evaluated Solutions May Be Valuable in Expensive Optimization [5.6787965501364335]
本稿では,選択段階における代理モデルによって予測される高品質で未評価なソリューションを取り入れた戦略的アプローチを提案する。
このアプローチは評価された解の分布を改善することを目的としており、それによってより優れた次世代の解を生成する。
論文 参考訳(メタデータ) (2024-12-05T04:06:30Z) - EVOLvE: Evaluating and Optimizing LLMs For In-Context Exploration [76.66831821738927]
大規模言語モデル(LLM)は、不確実性の下で最適な意思決定を必要とするシナリオにおいて、未調査のままである。
多くのアプリケーションに関係のあるステートレス強化学習環境である,帯域幅を最適に決定できる LLM の (in) 能力の測定を行う。
最適な探索アルゴリズムの存在を動機として,このアルゴリズム知識をLLMに統合する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-08T17:54:03Z) - Large Language Model-Aided Evolutionary Search for Constrained Multiobjective Optimization [15.476478159958416]
我々は,制約付き多目的最適化問題に対する進化探索を強化するために,大規模言語モデル(LLM)を用いる。
私たちの目標は、進化の集団の収束を早めることです。
論文 参考訳(メタデータ) (2024-05-09T13:44:04Z) - Large Language Models as Evolutionary Optimizers [37.92671242584431]
本稿では,大言語モデル(LLM)を進化論として初めて研究する。
主な利点は、最小限のドメイン知識と人間の努力が必要であり、モデルに追加のトレーニングは必要ありません。
また,進化探索における自己適応機構の有効性についても検討した。
論文 参考訳(メタデータ) (2023-10-29T15:44:52Z) - Few-shot Quality-Diversity Optimization [50.337225556491774]
品質多様性(QD)の最適化は、強化学習における知覚的最小値とスパース報酬を扱う上で効果的なツールであることが示されている。
本稿では,タスク分布の例から,パラメータ空間の最適化によって得られる経路の情報を利用して,未知の環境でQD手法を初期化する場合,数発の適応が可能であることを示す。
ロボット操作とナビゲーションベンチマークを用いて、疎密な報酬設定と密集した報酬設定の両方で実施された実験は、これらの環境でのQD最適化に必要な世代数を著しく削減することを示している。
論文 参考訳(メタデータ) (2021-09-14T17:12:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。