論文の概要: Controlled Self-Evolution for Algorithmic Code Optimization
- arxiv url: http://arxiv.org/abs/2601.07348v1
- Date: Mon, 12 Jan 2026 09:23:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.309959
- Title: Controlled Self-Evolution for Algorithmic Code Optimization
- Title(参考訳): アルゴリズムコード最適化のための自己進化制御
- Authors: Tu Hu, Ronghao Chen, Shuo Zhang, Jianghao Yin, Mou Xiao Feng, Jingping Liu, Shaolei Zhang, Wenqi Jiang, Yuqi Fang, Sen Hu, Yi Xu, Huacan Wang,
- Abstract要約: 自己進化的手法は、反復的な"生成-検証-精細"サイクルを通じてコード生成を強化する。
既存のアプローチでは、限られた予算内で優れた複雑さを持つソリューションを見つけることができません。
本稿では3つのキーコンポーネントからなる制御自己進化(CSE)を提案する。
- 参考スコア(独自算出の注目度): 33.82967000330865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-evolution methods enhance code generation through iterative "generate-verify-refine" cycles, yet existing approaches suffer from low exploration efficiency, failing to discover solutions with superior complexity within limited budgets. This inefficiency stems from initialization bias trapping evolution in poor solution regions, uncontrolled stochastic operations lacking feedback guidance, and insufficient experience utilization across tasks.To address these bottlenecks, we propose Controlled Self-Evolution (CSE), which consists of three key components. Diversified Planning Initialization generates structurally distinct algorithmic strategies for broad solution space coverage. Genetic Evolution replaces stochastic operations with feedback-guided mechanisms, enabling targeted mutation and compositional crossover. Hierarchical Evolution Memory captures both successful and failed experiences at inter-task and intra-task levels.Experiments on EffiBench-X demonstrate that CSE consistently outperforms all baselines across various LLM backbones. Furthermore, CSE achieves higher efficiency from early generations and maintains continuous improvement throughout evolution. Our code is publicly available at https://github.com/QuantaAlpha/EvoControl.
- Abstract(参考訳): のサイクルを通じてコード生成を促進するが、既存のアプローチでは探索効率が低く、限られた予算内でより複雑なソリューションを見つけられなかった。
この非効率性は, 未解決領域における初期化バイアストラップの進化, フィードバックガイダンスの欠如, タスク間の経験的利用の欠如に起因しており, それらのボトルネックに対処するため, 3つの重要な要素からなる制御自己進化(CSE)を提案する。
多様な計画初期化は、広い解空間をカバーするための構造的に異なるアルゴリズム戦略を生成する。
遺伝的進化は確率的操作をフィードバック誘導機構に置き換え、標的突然変異と構成交叉を可能にする。
階層的進化記憶(Hierarchical Evolution Memory)は、タスク間とタスク内の両方で成功した経験と失敗した経験をキャプチャする。
さらに、CSEは初期の世代から高い効率を達成し、進化を通して継続的な改善を維持します。
私たちのコードはhttps://github.com/QuantaAlpha/EvoControl.comで公開されています。
関連論文リスト
- LoongFlow: Directed Evolutionary Search via a Cognitive Plan-Execute-Summarize Paradigm [8.050281821865978]
LoongFlowは、最先端のソリューション品質を実現し、計算コストを大幅に削減するセルフ進化エージェントフレームワークである。
ブレンド」突然変異演算子とは異なり、LoongFlowはLarge Language Modelsを認知的なPlan-Execute-Summarize(PES)パラダイムに統合している。
長期的アーキテクチャコヒーレンスを維持するため、我々はハイブリッド進化記憶システムを組み込んだ。
論文 参考訳(メタデータ) (2025-12-30T08:39:28Z) - EvoLattice: Persistent Internal-Population Evolution through Multi-Alternative Quality-Diversity Graph Representations for LLM-Guided Program Discovery [2.1756081703276]
EvoLatticeは、単一の非巡回グラフ内の候補プログラムやエージェントの行動の全集団を表すフレームワークである。
各ノードは複数の永続的な選択肢を格納し、グラフを通る有効なパスは、それぞれ別の候補を定義する。
EvoLatticeは、ローカルデザインの選択がグローバルパフォーマンスにどのように影響するかを示す統計データを生成する。
論文 参考訳(メタデータ) (2025-12-15T19:43:06Z) - TOPSIS-like metaheuristic for LABS problem [70.49434432747293]
最良解に従う戦略と最悪の解を避ける戦略を統合する社会認知突然変異機構を導入する。
探索エージェントにハイパフォーマンスなソリューションを模倣し、貧弱なソリューションを避けるよう誘導することにより、これらの演算子は解の多様性と収束効率の両方を高める。
論文 参考訳(メタデータ) (2025-11-08T00:47:37Z) - Synergizing Reinforcement Learning and Genetic Algorithms for Neural Combinatorial Optimization [25.633698252033756]
本稿では,DRLの学習効率をGAのグローバル検索能力と相乗化するための進化的拡張機構を提案する。
EAMは、学習されたポリシーからソリューションを生成し、クロスオーバーや突然変異といったドメイン固有の遺伝子操作によってそれらを精製することで機能する。
EAMは、アテンションモデル、POMO、SymNCOのような最先端のDRLソルバとシームレスに統合できる。
論文 参考訳(メタデータ) (2025-06-11T05:17:30Z) - Evolution-based Region Adversarial Prompt Learning for Robustness Enhancement in Vision-Language Models [52.8949080772873]
本稿では,ER-APTと呼ばれる進化型領域逆アプティブチューニング手法を提案する。
各トレーニングイテレーションでは、まず従来の勾配法を用いてAEを生成する。
次に、AEsを最適化するために、選択、突然変異、交差を含む遺伝的進化機構を適用する。
最終進化型AEは、従来の単点対向的な高速チューニングの代わりに、地域ベースの対向最適化を実現するために用いられる。
論文 参考訳(メタデータ) (2025-03-17T07:08:47Z) - Evolving Pareto-Optimal Actor-Critic Algorithms for Generalizability and
Stability [67.8426046908398]
汎用性と安定性は,実世界における強化学習(RL)エージェントの運用において重要な2つの目的である。
本稿では,アクター・クリティック・ロス関数の自動設計法であるMetaPGを提案する。
論文 参考訳(メタデータ) (2022-04-08T20:46:16Z) - AdaLead: A simple and robust adaptive greedy search algorithm for
sequence design [55.41644538483948]
我々は、容易で、拡張性があり、堅牢な進化的欲求アルゴリズム(AdaLead)を開発した。
AdaLeadは、様々な生物学的に動機づけられたシーケンスデザインの課題において、アートアプローチのより複雑な状態を克服する、驚くほど強力なベンチマークである。
論文 参考訳(メタデータ) (2020-10-05T16:40:38Z) - Maximum Mutation Reinforcement Learning for Scalable Control [25.935468948833073]
強化学習(Reinforcement Learning, RL)は、大規模状態空間に対するデータ効率と最適制御を、スケーラブルな性能で実証している。
本稿では,スケーラブルなRLアルゴリズムであるEvolution-based Soft Actor-Critic (ESAC)を提案する。
論文 参考訳(メタデータ) (2020-07-24T16:29:19Z) - EOS: a Parallel, Self-Adaptive, Multi-Population Evolutionary Algorithm
for Constrained Global Optimization [68.8204255655161]
EOSは実数値変数の制約付きおよび制約なし問題に対する大域的最適化アルゴリズムである。
これはよく知られた微分進化(DE)アルゴリズムに多くの改良を加えている。
その結果、EOSisは、最先端の単一人口自己適応Dアルゴリズムと比較して高い性能を達成可能であることが証明された。
論文 参考訳(メタデータ) (2020-07-09T10:19:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。