論文の概要: LoongFlow: Directed Evolutionary Search via a Cognitive Plan-Execute-Summarize Paradigm
- arxiv url: http://arxiv.org/abs/2512.24077v1
- Date: Tue, 30 Dec 2025 08:39:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.329135
- Title: LoongFlow: Directed Evolutionary Search via a Cognitive Plan-Execute-Summarize Paradigm
- Title(参考訳): LoongFlow:認知的プラン・エグゼクティブ・サマリズ・パラダイムによる進化的検索
- Authors: Chunhui Wan, Xunan Dai, Zhuo Wang, Minglei Li, Yanpeng Wang, Yinan Mao, Yu Lan, Zhiwen Xiao,
- Abstract要約: LoongFlowは、最先端のソリューション品質を実現し、計算コストを大幅に削減するセルフ進化エージェントフレームワークである。
ブレンド」突然変異演算子とは異なり、LoongFlowはLarge Language Modelsを認知的なPlan-Execute-Summarize(PES)パラダイムに統合している。
長期的アーキテクチャコヒーレンスを維持するため、我々はハイブリッド進化記憶システムを組み込んだ。
- 参考スコア(独自算出の注目度): 8.050281821865978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The transition from static Large Language Models (LLMs) to self-improving agents is hindered by the lack of structured reasoning in traditional evolutionary approaches. Existing methods often struggle with premature convergence and inefficient exploration in high-dimensional code spaces. To address these challenges, we introduce LoongFlow, a self-evolving agent framework that achieves state-of-the-art solution quality with significantly reduced computational costs. Unlike "blind" mutation operators, LoongFlow integrates LLMs into a cognitive "Plan-Execute-Summarize" (PES) paradigm, effectively mapping the evolutionary search to a reasoning-heavy process. To sustain long-term architectural coherence, we incorporate a hybrid evolutionary memory system. By synergizing Multi-Island models with MAP-Elites and adaptive Boltzmann selection, this system theoretically balances the exploration-exploitation trade-off, maintaining diverse behavioral niches to prevent optimization stagnation. We instantiate LoongFlow with a General Agent for algorithmic discovery and an ML Agent for pipeline optimization. Extensive evaluations on the AlphaEvolve benchmark and Kaggle competitions demonstrate that LoongFlow outperforms leading baselines (e.g., OpenEvolve, ShinkaEvolve) by up to 60% in evolutionary efficiency while discovering superior solutions. LoongFlow marks a substantial step forward in autonomous scientific discovery, enabling the generation of expert-level solutions with reduced computational overhead.
- Abstract(参考訳): 静的言語モデル(LLM)から自己改善エージェントへの移行は、従来の進化的アプローチにおける構造化推論の欠如によって妨げられている。
既存の手法は、しばしば高次元の符号空間における早めの収束と非効率な探索に苦しむ。
これらの課題に対処するため,計算コストを大幅に削減し,最先端のソリューション品質を実現する自己進化型エージェントフレームワークであるLoongFlowを紹介した。
ブレンド」突然変異演算子とは異なり、LoongFlow は LLM を認知的な "Plan-Execute-Summarize" (PES) パラダイムに統合し、進化的探索を推論重なプロセスに効果的にマッピングする。
長期的アーキテクチャコヒーレンスを維持するため、我々はハイブリッド進化記憶システムを組み込んだ。
MAP-エリートモデルと適応ボルツマン選別モデルとの相乗効果により、このシステムは理論的には探索・探索トレードオフのバランスを保ち、多様な行動ニッチを維持して最適化の停滞を防ぐ。
アルゴリズム探索のためのジェネラルエージェントとパイプライン最適化のためのMLエージェントでLoongFlowをインスタンス化する。
AlphaEvolveベンチマークとKaggleコンペティションの大規模な評価によると、LoongFlowは、優れたソリューションを発見しながら、進化効率を最大60%向上させる(例えば、OpenEvolve、ShinkaEvolve)。
LoongFlowは、自律的な科学的発見における大きな一歩であり、計算オーバーヘッドを低減したエキスパートレベルのソリューションの生成を可能にしている。
関連論文リスト
- Learning to Evolve with Convergence Guarantee via Neural Unrolling [37.99564850768798]
両レベルのメタ最適化フレームワークであるL2E(Learning to Evolve)を導入する。
L2Eは、KM(Krasnosel'skii-Mann)固定点理論に基づくニューラルアンローリング過程として進化探索を再構成する。
実験では、高次元空間におけるL2Eのスケーラビリティと、合成および実世界の制御タスクにまたがる堅牢なゼロショット一般化が示される。
論文 参考訳(メタデータ) (2025-12-12T10:46:25Z) - Experience-Guided Reflective Co-Evolution of Prompts and Heuristics for Automatic Algorithm Design [124.54166764570972]
組合せ最適化問題は伝統的に手作りのアルゴリズムで取り組まれている。
最近の進歩は、大規模言語モデルによる自動設計の可能性を強調している。
本稿では,自動アルゴリズム設計のためのPmpt and Heuristics (EvoPH) を用いた経験進化的リフレクティブ・ガイドを提案する。
論文 参考訳(メタデータ) (2025-09-29T09:24:09Z) - HiVA: Self-organized Hierarchical Variable Agent via Goal-driven Semantic-Topological Evolution [13.440964262446558]
HiVA(Hierarchical Variable Agent)は、セマンティック・トポロジカル・エボリューション(STEV)アルゴリズムを用いて、自己組織化グラフとしてエージェントをモデル化する新しいフレームワークである。
対話、コーディング、Longcontext Q&A、数学、エージェントベンチマークの実験では、タスク精度が5~10%向上し、リソース効率が向上した。
論文 参考訳(メタデータ) (2025-08-29T18:51:18Z) - Latent Bayesian Optimization via Autoregressive Normalizing Flows [17.063294409131238]
本研究では,正規化フローに基づくベイズ最適化(NF-BO)を提案する。
提案手法は,分子生成タスクにおいて優れた性能を示し,従来のLBO手法と最近のLBO手法の両方を著しく上回っている。
論文 参考訳(メタデータ) (2025-04-21T06:36:09Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - EmoDM: A Diffusion Model for Evolutionary Multi-objective Optimization [22.374325061635112]
この研究は、EmoDMと呼ばれる進化的多目的探索を学習できる拡散モデルを提案する。
EmoDMは、新たなMOPに対して、さらなる進化的な探索をすることなく、その逆拡散によって、一組の非支配的なソリューションを生成することができる。
実験により,探索性能と計算効率の両面から,EmoDMの競合性を示す。
論文 参考訳(メタデータ) (2024-01-29T07:41:44Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。