論文の概要: DeltaEvolve: Accelerating Scientific Discovery through Momentum-Driven Evolution
- arxiv url: http://arxiv.org/abs/2602.02919v1
- Date: Mon, 02 Feb 2026 23:47:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.141719
- Title: DeltaEvolve: Accelerating Scientific Discovery through Momentum-Driven Evolution
- Title(参考訳): DeltaEvolve: モメンタム駆動進化による科学的発見の加速
- Authors: Jiachen Jiang, Tianyu Ding, Zhihui Zhu,
- Abstract要約: LLM駆動の進化系は、自動科学発見の可能性を証明している。
AlphaEvolveのような既存のアプローチは、文脈非効率なフルコード履歴に依存している。
本稿では,完全なコード履歴を構造化セマンティックデルタに置き換える運動量駆動型進化的フレームワークDeltaEvolveを提案する。
- 参考スコア(独自算出の注目度): 28.737322041874293
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLM-driven evolutionary systems have shown promise for automated science discovery, yet existing approaches such as AlphaEvolve rely on full-code histories that are context-inefficient and potentially provide weak evolutionary guidance. In this work, we first formalize the evolutionary agents as a general Expectation-Maximization framework, where the language model samples candidate programs (E-step) and the system updates the control context based on evaluation feedback (M-step). Under this view, constructing context via full-code snapshots constitutes a suboptimal M-step, as redundant implement details dilutes core algorithmic ideas, making it difficult to provide clear inspirations for evolution. To address this, we propose DeltaEvolve, a momentum-driven evolutionary framework that replaces full-code history with structured semantic delta capturing how and why modifications between successive nodes affect performance. As programs are often decomposable, semantic delta usually contains many effective components which are transferable and more informative to drive improvement. By organizing semantic delta through multi-level database and progressive disclosure mechanism, input tokens are further reduced. Empirical evaluations on tasks across diverse scientific domains show that our framework can discover better solution with less token consumption over full-code-based evolutionary agents.
- Abstract(参考訳): LLM駆動の進化系は自動科学発見を約束しているが、AlphaEvolveのような既存のアプローチは文脈非効率で弱い進化誘導を提供する完全なコード履歴に依存している。
本研究では、まず、言語モデルが候補プログラム(Eステップ)をサンプリングし、システムは評価フィードバック(Mステップ)に基づいて制御コンテキストを更新する一般的な期待・最大化フレームワークとして進化エージェントを定式化する。
この観点では、冗長実装の詳細がコアアルゴリズムのアイデアを希釈し、進化のための明確なインスピレーションを与えるのが難しくなるため、フルコードスナップショットによるコンテキスト構築は、最適のMステップを構成する。
これを解決するためにDeltaEvolveを提案する。完全なコード履歴を構造的セマンティックデルタに置き換える運動量駆動の進化的フレームワークで、連続するノード間の変更がパフォーマンスに影響する理由と理由をキャプチャする。
プログラムはしばしば分解可能であるため、セマンティックデルタは通常、伝達可能で改善を促進するためにより有益な多くの有効成分を含んでいる。
多レベルデータベースとプログレッシブ開示機構を通じてセマンティックデルタを編成することにより、入力トークンはさらに削減される。
多様な科学的領域にわたるタスクに対する実証的な評価は、我々のフレームワークが完全なコードベースの進化エージェントよりも少ないトークン消費でより良いソリューションを発見できることを示している。
関連論文リスト
- Beyond Quantity: Trajectory Diversity Scaling for Code Agents [51.71414642763219]
Trajectory Diversity Scalingは、コードエージェントのためのデータ合成フレームワークである。
TDScalingは、(1)実際のサービスの論理的依存関係をキャプチャするBusiness Clusterメカニズム、(2)軌道コヒーレンスを強制するブループリント駆動のマルチエージェントパラダイム、(3)ロングテールシナリオを指向する適応的な進化メカニズムの4つの革新を統合しています。
論文 参考訳(メタデータ) (2026-02-03T07:43:03Z) - Position: Agentic Evolution is the Path to Evolving LLMs [56.733933092220845]
この制限に対処するには、新たなスケーリング軸進化が必要です。
既存の展開時適応手法では、障害を診断し、持続的な改善を生み出すために必要な戦略的機関が欠如している。
論文 参考訳(メタデータ) (2026-01-30T22:15:58Z) - Yunjue Agent Tech Report: A Fully Reproducible, Zero-Start In-Situ Self-Evolving Agent System for Open-Ended Tasks [10.622439192272527]
従来のエージェントシステムは、タスク分布が継続的にドリフトし、外部の監視が不十分な、オープンな環境に苦しむ。
In-Situ Self-Evolving(In-Situ Self-Evolving)パラダイムを提案する。
このフレームワーク内では、新しい課題をナビゲートするためのツールを反復的に合成、最適化、再利用するシステムであるYunjue Agentを開発します。
論文 参考訳(メタデータ) (2026-01-26T07:27:47Z) - Controlled Self-Evolution for Algorithmic Code Optimization [33.82967000330864]
自己進化的手法は、反復的な"生成-検証-精細"サイクルを通じてコード生成を強化する。
既存のアプローチでは、限られた予算内で優れた複雑さを持つソリューションを見つけることができません。
本稿では3つのキーコンポーネントからなる制御自己進化(CSE)を提案する。
論文 参考訳(メタデータ) (2026-01-12T09:23:13Z) - LoongFlow: Directed Evolutionary Search via a Cognitive Plan-Execute-Summarize Paradigm [8.050281821865978]
LoongFlowは、最先端のソリューション品質を実現し、計算コストを大幅に削減するセルフ進化エージェントフレームワークである。
ブレンド」突然変異演算子とは異なり、LoongFlowはLarge Language Modelsを認知的なPlan-Execute-Summarize(PES)パラダイムに統合している。
長期的アーキテクチャコヒーレンスを維持するため、我々はハイブリッド進化記憶システムを組み込んだ。
論文 参考訳(メタデータ) (2025-12-30T08:39:28Z) - MemEvolve: Meta-Evolution of Agent Memory Systems [66.09735157017558]
自己進化型メモリシステムは、大型言語モデル(LLM)ベースのエージェントの進化パラダイムを前例のない形で再構築している。
MemeEvolveは、エージェントの経験的知識とメモリアーキテクチャを共同で進化させるメタ進化フレームワークである。
EvolveLabは、12の代表的なメモリシステムをモジュール設計空間に蒸留する、統一された自己進化型メモリである。
論文 参考訳(メタデータ) (2025-12-21T14:26:14Z) - GigaEvo: An Open Source Optimization Framework Powered By LLMs And Evolution Algorithms [7.228213026504935]
GigaEvoはオープンソースのフレームワークで、研究者はLLM-進化のハイブリッドアプローチを研究、実験することができる。
今後の研究を支援するために,システムアーキテクチャ,実装決定,実験方法論の詳細な説明を行う。
論文 参考訳(メタデータ) (2025-11-17T14:44:47Z) - EvoSyn: Generalizable Evolutionary Data Synthesis for Verifiable Learning [63.03672166010434]
我々は、進化的、タスクに依存しない、戦略を導いた、実行可能検証可能なデータ合成フレームワークを紹介します。
問題、多様な候補解、検証成果物を共同で合成する。
これは、人間による注釈付きチェックと戦略によるチェックの合意を強制する一貫性に基づく評価器を通じて戦略を反復的に発見する。
論文 参考訳(メタデータ) (2025-10-20T11:56:35Z) - HiVA: Self-organized Hierarchical Variable Agent via Goal-driven Semantic-Topological Evolution [13.440964262446558]
HiVA(Hierarchical Variable Agent)は、セマンティック・トポロジカル・エボリューション(STEV)アルゴリズムを用いて、自己組織化グラフとしてエージェントをモデル化する新しいフレームワークである。
対話、コーディング、Longcontext Q&A、数学、エージェントベンチマークの実験では、タスク精度が5~10%向上し、リソース効率が向上した。
論文 参考訳(メタデータ) (2025-08-29T18:51:18Z) - When Large Language Models Meet Evolutionary Algorithms: Potential Enhancements and Challenges [50.280704114978384]
事前訓練された大規模言語モデル(LLM)は、自然なテキストを生成する強力な能力を示す。
進化的アルゴリズム(EA)は、複雑な現実世界の問題に対する多様な解決策を発見できる。
論文 参考訳(メタデータ) (2024-01-19T05:58:30Z) - Octopus: Embodied Vision-Language Programmer from Environmental Feedback [58.04529328728999]
身体視覚言語モデル(VLM)は多モード認識と推論において大きな進歩を遂げた。
このギャップを埋めるために、我々は、計画と操作を接続する媒体として実行可能なコード生成を使用する、具体化された視覚言語プログラマであるOctopusを紹介した。
Octopusは、1)エージェントの視覚的およびテキスト的タスクの目的を正確に理解し、2)複雑なアクションシーケンスを定式化し、3)実行可能なコードを生成するように設計されている。
論文 参考訳(メタデータ) (2023-10-12T17:59:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。