論文の概要: EvoLattice: Persistent Internal-Population Evolution through Multi-Alternative Quality-Diversity Graph Representations for LLM-Guided Program Discovery
- arxiv url: http://arxiv.org/abs/2512.13857v1
- Date: Mon, 15 Dec 2025 19:43:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.474011
- Title: EvoLattice: Persistent Internal-Population Evolution through Multi-Alternative Quality-Diversity Graph Representations for LLM-Guided Program Discovery
- Title(参考訳): EvoLattice: LLM-Guided Program Discoveryのための多変量品質多様性グラフ表現による内部最適化の永続的進化
- Authors: Kamer Ali Yuksel,
- Abstract要約: EvoLatticeは、単一の非巡回グラフ内の候補プログラムやエージェントの行動の全集団を表すフレームワークである。
各ノードは複数の永続的な選択肢を格納し、グラフを通る有効なパスは、それぞれ別の候補を定義する。
EvoLatticeは、ローカルデザインの選択がグローバルパフォーマンスにどのように影響するかを示す統計データを生成する。
- 参考スコア(独自算出の注目度): 2.1756081703276
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language models (LLMs) are increasingly used to evolve programs and multi-agent systems, yet most existing approaches rely on overwrite-based mutations that maintain only a single candidate at a time. Such methods discard useful variants, suffer from destructive edits, and explore a brittle search space prone to structural failure. We introduce EvoLattice, a framework that represents an entire population of candidate programs or agent behaviors within a single directed acyclic graph. Each node stores multiple persistent alternatives, and every valid path through the graph defines a distinct executable candidate, yielding a large combinatorial search space without duplicating structure. EvoLattice enables fine-grained alternative-level evaluation by scoring each alternative across all paths in which it appears, producing statistics that reveal how local design choices affect global performance. These statistics provide a dense, data-driven feedback signal for LLM-guided mutation, recombination, and pruning, while preserving successful components. Structural correctness is guaranteed by a deterministic self-repair mechanism that enforces acyclicity and dependency consistency independently of the LLM. EvoLattice naturally extends to agent evolution by interpreting alternatives as prompt fragments or sub-agent behaviors. Across program synthesis (proxy and optimizer meta-learning), EvoLattice yields more stable evolution, greater expressivity, and stronger improvement trajectories than prior LLM-guided methods. The resulting dynamics resemble quality-diversity optimization, emerging implicitly from EvoLattice's internal multi-alternative representation rather than an explicit external archive.
- Abstract(参考訳): 大規模言語モデル(LLM)はプログラムやマルチエージェントシステムの発展にますます利用されているが、既存のほとんどのアプローチは、一度に1つの候補しか持たないオーバーライトベースの突然変異に依存している。
このような手法は有用な変種を排除し、破壊的な編集に苦しむとともに、構造的な失敗を招きやすい脆い探索空間を探索する。
EvoLatticeは,1つの有向非巡回グラフ内の候補プログラムやエージェントの行動全体を表現したフレームワークである。
各ノードは複数の永続的な選択肢を格納し、グラフを通るすべての有効な経路は、異なる実行可能候補を定義し、構造を重複せずに大きな組合せ探索空間を生成する。
EvoLatticeは、各選択肢が現れるすべてのパスにまたがってスコア付けし、ローカル設計の選択がグローバルパフォーマンスにどのように影響するかを示す統計データを生成することで、詳細な代替レベルの評価を可能にする。
これらの統計は、LSM誘導突然変異、組換え、刈り取りのための密度の高いデータ駆動フィードバック信号を提供し、成功コンポーネントを保存している。
構造的正しさは、LCMとは独立に非循環性と依存性の一貫性を強制する決定論的自己修復機構によって保証される。
EvoLatticeは、プロンプトフラグメントやサブエージェントの振る舞いとして代替品を解釈することで、エージェントの進化に自然に拡張する。
プログラム合成全体(プロキシとオプティマイザのメタラーニング)において、EvoLatticeは従来のLCM誘導法よりも安定な進化、表現率の向上、改善軌道の強化をもたらす。
結果として得られるダイナミクスは品質の多様性の最適化に似ており、明示的な外部アーカイブではなく、EvoLatticeの内部のマルチ代替表現から暗黙的に現れる。
関連論文リスト
- EvoIR: Towards All-in-One Image Restoration via Evolutionary Frequency Modulation [54.37259500020744]
EvoIRは、動的および適応的な画像復元のための進化周波数変調を導入する、AiOIR固有のフレームワークである。
具体的には、EvoIRは周波数変調モジュール(FMM)を採用し、特徴を高周波数分岐と低周波数分岐に明示的に分解する。
進化最適化戦略(EOS: Evolutionary Optimization Strategy)は、人口ベースの進化過程を通じて、周波数認識の目的を反復的に調整する。
論文 参考訳(メタデータ) (2025-12-04T18:59:10Z) - REvolution: An Evolutionary Framework for RTL Generation driven by Large Language Models [2.127921199213507]
LLM(Large Language Models)は、レジスター-トランスファーレベル(RTL)コード生成に使用される。
本稿では,進化計算(EC)とLLMを組み合わせて自動RTL生成と最適化を行うフレームワークであるRevolutionを紹介する。
論文 参考訳(メタデータ) (2025-10-24T12:50:35Z) - Dynamic Generation of Multi-LLM Agents Communication Topologies with Graph Diffusion Models [99.85131798240808]
我々はtextitGuided Topology Diffusion (GTD) と呼ばれる新しい生成フレームワークを導入する。
条件付き離散グラフ拡散モデルにインスパイアされたGTD式は、反復的な構成過程としてトポロジー合成を行う。
各ステップで生成は、多目的報酬を予測する軽量プロキシモデルによって制御される。
実験により、GTDは高いタスク適応性、スパース、効率的な通信トポロジを生成できることが示されている。
論文 参考訳(メタデータ) (2025-10-09T05:28:28Z) - HiVA: Self-organized Hierarchical Variable Agent via Goal-driven Semantic-Topological Evolution [13.440964262446558]
HiVA(Hierarchical Variable Agent)は、セマンティック・トポロジカル・エボリューション(STEV)アルゴリズムを用いて、自己組織化グラフとしてエージェントをモデル化する新しいフレームワークである。
対話、コーディング、Longcontext Q&A、数学、エージェントベンチマークの実験では、タスク精度が5~10%向上し、リソース効率が向上した。
論文 参考訳(メタデータ) (2025-08-29T18:51:18Z) - Generate, Discriminate, Evolve: Enhancing Context Faithfulness via Fine-Grained Sentence-Level Self-Evolution [61.80716438091887]
GenDiE (Generate, Discriminate, Evolve) は、微粒な文レベルの最適化によって文脈忠実性を高める新しい自己進化フレームワークである。
応答中の各文を独立した最適化単位として扱うことで、GenDiEは以前のアプローチの限界に効果的に対処する。
ASQA(ドメイン内のLFQA)とConFiQAデータセットの実験は、GenDiEが忠実さと正しさの両方で様々なベースラインを超えることを示した。
論文 参考訳(メタデータ) (2025-03-03T16:08:33Z) - EvoP: Robust LLM Inference via Evolutionary Pruning [18.365063663212126]
大規模言語モデル(LLM)は自然言語処理タスクにおいて顕著な成功を収めた。
既存のモデルプルーニングメソッドは、モデルから冗長な構造を取り除き、この問題に対処する。
頑健なLLM推論のための進化的プルーニングフレームワークであるEvoPを提案する。
論文 参考訳(メタデータ) (2025-02-19T06:33:59Z) - EOS: a Parallel, Self-Adaptive, Multi-Population Evolutionary Algorithm
for Constrained Global Optimization [68.8204255655161]
EOSは実数値変数の制約付きおよび制約なし問題に対する大域的最適化アルゴリズムである。
これはよく知られた微分進化(DE)アルゴリズムに多くの改良を加えている。
その結果、EOSisは、最先端の単一人口自己適応Dアルゴリズムと比較して高い性能を達成可能であることが証明された。
論文 参考訳(メタデータ) (2020-07-09T10:19:22Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。