論文の概要: LoongFlow: Directed Evolutionary Search via a Cognitive Plan-Execute-Summarize Paradigm
- arxiv url: http://arxiv.org/abs/2512.24077v1
- Date: Tue, 30 Dec 2025 08:39:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.329135
- Title: LoongFlow: Directed Evolutionary Search via a Cognitive Plan-Execute-Summarize Paradigm
- Title(参考訳): LoongFlow:認知的プラン・エグゼクティブ・サマリズ・パラダイムによる進化的検索
- Authors: Chunhui Wan, Xunan Dai, Zhuo Wang, Minglei Li, Yanpeng Wang, Yinan Mao, Yu Lan, Zhiwen Xiao,
- Abstract要約: LoongFlowは、最先端のソリューション品質を実現し、計算コストを大幅に削減するセルフ進化エージェントフレームワークである。
ブレンド」突然変異演算子とは異なり、LoongFlowはLarge Language Modelsを認知的なPlan-Execute-Summarize(PES)パラダイムに統合している。
長期的アーキテクチャコヒーレンスを維持するため、我々はハイブリッド進化記憶システムを組み込んだ。
- 参考スコア(独自算出の注目度): 8.050281821865978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The transition from static Large Language Models (LLMs) to self-improving agents is hindered by the lack of structured reasoning in traditional evolutionary approaches. Existing methods often struggle with premature convergence and inefficient exploration in high-dimensional code spaces. To address these challenges, we introduce LoongFlow, a self-evolving agent framework that achieves state-of-the-art solution quality with significantly reduced computational costs. Unlike "blind" mutation operators, LoongFlow integrates LLMs into a cognitive "Plan-Execute-Summarize" (PES) paradigm, effectively mapping the evolutionary search to a reasoning-heavy process. To sustain long-term architectural coherence, we incorporate a hybrid evolutionary memory system. By synergizing Multi-Island models with MAP-Elites and adaptive Boltzmann selection, this system theoretically balances the exploration-exploitation trade-off, maintaining diverse behavioral niches to prevent optimization stagnation. We instantiate LoongFlow with a General Agent for algorithmic discovery and an ML Agent for pipeline optimization. Extensive evaluations on the AlphaEvolve benchmark and Kaggle competitions demonstrate that LoongFlow outperforms leading baselines (e.g., OpenEvolve, ShinkaEvolve) by up to 60% in evolutionary efficiency while discovering superior solutions. LoongFlow marks a substantial step forward in autonomous scientific discovery, enabling the generation of expert-level solutions with reduced computational overhead.
- Abstract(参考訳): 静的言語モデル(LLM)から自己改善エージェントへの移行は、従来の進化的アプローチにおける構造化推論の欠如によって妨げられている。
既存の手法は、しばしば高次元の符号空間における早めの収束と非効率な探索に苦しむ。
これらの課題に対処するため,計算コストを大幅に削減し,最先端のソリューション品質を実現する自己進化型エージェントフレームワークであるLoongFlowを紹介した。
ブレンド」突然変異演算子とは異なり、LoongFlow は LLM を認知的な "Plan-Execute-Summarize" (PES) パラダイムに統合し、進化的探索を推論重なプロセスに効果的にマッピングする。
長期的アーキテクチャコヒーレンスを維持するため、我々はハイブリッド進化記憶システムを組み込んだ。
MAP-エリートモデルと適応ボルツマン選別モデルとの相乗効果により、このシステムは理論的には探索・探索トレードオフのバランスを保ち、多様な行動ニッチを維持して最適化の停滞を防ぐ。
アルゴリズム探索のためのジェネラルエージェントとパイプライン最適化のためのMLエージェントでLoongFlowをインスタンス化する。
AlphaEvolveベンチマークとKaggleコンペティションの大規模な評価によると、LoongFlowは、優れたソリューションを発見しながら、進化効率を最大60%向上させる(例えば、OpenEvolve、ShinkaEvolve)。
LoongFlowは、自律的な科学的発見における大きな一歩であり、計算オーバーヘッドを低減したエキスパートレベルのソリューションの生成を可能にしている。
関連論文リスト
- AdaEvolve: Adaptive LLM Driven Zeroth-Order Optimization [61.535567824938205]
本稿では,LLMによる進化を階層的適応最適化問題として再構成するフレームワークであるAdaEvolveを紹介する。
AdaEvolveは185の異なるオープンエンド最適化問題において、オープンエンドベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2026-02-23T18:45:31Z) - K-Search: LLM Kernel Generation via Co-Evolving Intrinsic World Model [57.440609834690385]
既存のアプローチでは、進化ループ内の高速コードジェネレータとして、LLM(Large Language Models)を扱います。
我々は,共進化的世界モデルによる検索を提案し,この手法に基づいてK-Searchを構築する。
GQA, MLA, MoE カーネルを含む多種多様な複雑なカーネル上で K-Search を評価する。
論文 参考訳(メタデータ) (2026-02-22T11:06:22Z) - EmboCoach-Bench: Benchmarking AI Agents on Developing Embodied Robots [68.29056647487519]
Embodied AIは、高忠実度シミュレーションと大規模データ収集によって実現されている。
しかし、このスケーリング能力は、労働集約的な手作業の監視に依存しているため、いまだにボトルネックになっている。
実装ポリシーを自律的に構築するための LLM エージェントの能力を評価するベンチマークである textscEmboCoach-Bench を紹介する。
論文 参考訳(メタデータ) (2026-01-29T11:33:49Z) - PathWise: Planning through World Model for Automated Heuristic Design via Self-Evolving LLMs [16.59846708454225]
自己進化型LCM(PathWise)による世界自動ヒューリスティックデザインのための計画的計画」と呼ばれる新しいマルチエージェント推論フレームワークを提案する。
PathWiseは、検索軌跡のコンパクトでステートフルなメモリとして機能するエンテーメントグラフ上のシーケンシャルな決定過程を定式化する。
様々なCOP実験により、PathWiseはより高速に収束し、より一般化し、異なるLCMバックボーンをまたいで一般化し、より大きな問題サイズにスケールすることが示された。
論文 参考訳(メタデータ) (2026-01-28T12:34:50Z) - Large Language Model-Powered Evolutionary Code Optimization on a Phylogenetic Tree [17.08113692977552]
PhyloEvolveは、GPU指向のアルゴリズム最適化をIn-Context Reinforcement Learning問題として再設計するシステムである。
本稿では,アルゴリズムの変種間の継承,分岐,組換えを捉える系統木表現を提案する。
我々は、PDEソルバ、多様体学習、スペクトルグラフアルゴリズムを含む科学計算処理のPhyloEvolveを評価する。
論文 参考訳(メタデータ) (2026-01-20T22:32:52Z) - PACEvolve: Enabling Long-Horizon Progress-Aware Consistent Evolution [64.15555230987222]
PACEvolveはエージェントのコンテキストと検索ダイナミクスを堅牢に管理するように設計されたフレームワークである。
PACEvolveは、一貫性のある長期自己改善のための体系的なパスを提供する。
論文 参考訳(メタデータ) (2026-01-15T18:25:23Z) - Controlled Self-Evolution for Algorithmic Code Optimization [33.82967000330864]
自己進化的手法は、反復的な"生成-検証-精細"サイクルを通じてコード生成を強化する。
既存のアプローチでは、限られた予算内で優れた複雑さを持つソリューションを見つけることができません。
本稿では3つのキーコンポーネントからなる制御自己進化(CSE)を提案する。
論文 参考訳(メタデータ) (2026-01-12T09:23:13Z) - Learning to Evolve with Convergence Guarantee via Neural Unrolling [37.99564850768798]
両レベルのメタ最適化フレームワークであるL2E(Learning to Evolve)を導入する。
L2Eは、KM(Krasnosel'skii-Mann)固定点理論に基づくニューラルアンローリング過程として進化探索を再構成する。
実験では、高次元空間におけるL2Eのスケーラビリティと、合成および実世界の制御タスクにまたがる堅牢なゼロショット一般化が示される。
論文 参考訳(メタデータ) (2025-12-12T10:46:25Z) - Experience-Guided Reflective Co-Evolution of Prompts and Heuristics for Automatic Algorithm Design [124.54166764570972]
組合せ最適化問題は伝統的に手作りのアルゴリズムで取り組まれている。
最近の進歩は、大規模言語モデルによる自動設計の可能性を強調している。
本稿では,自動アルゴリズム設計のためのPmpt and Heuristics (EvoPH) を用いた経験進化的リフレクティブ・ガイドを提案する。
論文 参考訳(メタデータ) (2025-09-29T09:24:09Z) - HiVA: Self-organized Hierarchical Variable Agent via Goal-driven Semantic-Topological Evolution [13.440964262446558]
HiVA(Hierarchical Variable Agent)は、セマンティック・トポロジカル・エボリューション(STEV)アルゴリズムを用いて、自己組織化グラフとしてエージェントをモデル化する新しいフレームワークである。
対話、コーディング、Longcontext Q&A、数学、エージェントベンチマークの実験では、タスク精度が5~10%向上し、リソース効率が向上した。
論文 参考訳(メタデータ) (2025-08-29T18:51:18Z) - Latent Bayesian Optimization via Autoregressive Normalizing Flows [17.063294409131238]
本研究では,正規化フローに基づくベイズ最適化(NF-BO)を提案する。
提案手法は,分子生成タスクにおいて優れた性能を示し,従来のLBO手法と最近のLBO手法の両方を著しく上回っている。
論文 参考訳(メタデータ) (2025-04-21T06:36:09Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - EmoDM: A Diffusion Model for Evolutionary Multi-objective Optimization [22.374325061635112]
この研究は、EmoDMと呼ばれる進化的多目的探索を学習できる拡散モデルを提案する。
EmoDMは、新たなMOPに対して、さらなる進化的な探索をすることなく、その逆拡散によって、一組の非支配的なソリューションを生成することができる。
実験により,探索性能と計算効率の両面から,EmoDMの競合性を示す。
論文 参考訳(メタデータ) (2024-01-29T07:41:44Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。