論文の概要: \(X\)-evolve: Solution space evolution powered by large language models
- arxiv url: http://arxiv.org/abs/2508.07932v1
- Date: Mon, 11 Aug 2025 12:47:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.096648
- Title: \(X\)-evolve: Solution space evolution powered by large language models
- Title(参考訳): \(X\)-evolve:大規模言語モデルによる解空間の進化
- Authors: Yi Zhai, Zhiqiang Wei, Ruohan Li, Keyu Pan, Shuo Liu, Lu Zhang, Jianmin Ji, Wuyang Zhang, Yu Zhang, Yanyong Zhang,
- Abstract要約: X)-evolveは、代わりに解空間(X)(個々の解の集合)を進化させるパラダイムシフト法である。
スコアに基づく探索アルゴリズムは、目的関数のスコアからのフィードバックによって導かれるこのパラメトリックに定義された空間を効率的に探索する。
- 参考スコア(独自算出の注目度): 16.586197761629744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While combining large language models (LLMs) with evolutionary algorithms (EAs) shows promise for solving complex optimization problems, current approaches typically evolve individual solutions, often incurring high LLM call costs. We introduce \(X\)-evolve, a paradigm-shifting method that instead evolves solution spaces \(X\) (sets of individual solutions) - subsets of the overall search space \(S\). In \(X\)-evolve, LLMs generate tunable programs wherein certain code snippets, designated as parameters, define a tunable solution space. A score-based search algorithm then efficiently explores this parametrically defined space, guided by feedback from objective function scores. This strategy enables broader and more efficient exploration, which can potentially accelerate convergence at a much lower search cost, requiring up to two orders of magnitude fewer LLM calls than prior leading methods. We demonstrate \(X\)-evolve's efficacy across three distinct hard optimization problems. For the cap set problem, we discover a larger partial admissible set, establishing a new tighter asymptotic lower bound for the cap set constant (\(C \ge 2.2203\)). In information theory, we uncover a larger independent set for the 15-vertex cycle graph (\(\mathcal{C}_{15}^{\boxtimes 5}\), size 19,946), thereby raising the known lower bound on its Shannon capacity. Furthermore, for the NP-hard online bin packing problem, we generate heuristics that consistently outperform standard strategies across established benchmarks. By evolving solution spaces, our method considerably improves search effectiveness, making it possible to tackle high-dimensional problems that were previously computationally prohibitive.
- Abstract(参考訳): 大規模言語モデル(LLM)と進化的アルゴリズム(EA)を組み合わせることで、複雑な最適化問題の解決が期待できる一方で、現在のアプローチは通常、個々のソリューションを進化させ、しばしば高いLCMコールコストを発生させる。
代わりに、解空間 \(X\) (個々の解の集合) - 全体の探索空間 \(S\) の部分集合を進化させるパラダイムシフト法である \(X\)-evolve を導入する。
\(X\)-evolveでは、LLMはチューナブルなプログラムを生成し、パラメータとして指定された特定のコードスニペットはチューナブルな解空間を定義する。
スコアに基づく探索アルゴリズムは、目的関数のスコアからのフィードバックによって導かれるこのパラメトリックに定義された空間を効率的に探索する。
この戦略により、より広範で効率的な探索が可能となり、より少ない探索コストで収束を加速し、先行する手法よりも最大2桁のLLM呼び出しを削減できる。
3つの異なるハード最適化問題に対して, \(X\)-evolve の有効性を示す。
キャップセット問題に対して、より大きい部分許容集合を発見し、キャップセット定数(\(C \ge 2.2203\))に対するより厳密な漸近的下界を確立する。
情報理論では、15-頂点サイクルグラフ (\(\mathcal{C}_{15}^{\boxtimes 5}\), サイズ19,946) に対するより大きな独立集合を発見し、その結果、シャノン容量の既知の下界が増大する。
さらに、NPハードなオンラインビンパッキング問題に対して、確立されたベンチマークの標準戦略を一貫して上回るヒューリスティックスを生成する。
解空間の進化により,提案手法は探索効率を大幅に向上し,従来計算が禁じられていた高次元問題に対処することが可能となった。
関連論文リスト
- Efficient QAOA Architecture for Solving Multi-Constrained Optimization Problems [3.757262277494307]
本稿では,量子近似最適化Ansatzのための制約符号化手法の新たな組み合わせを提案する。
ワンホット制約は、検索空間を実現可能なサブ空間に自然に制限する$XY$-mixerによって強制される。
XY$-mixersは検索スペースを制限するため、特定の状態ベクトルエントリは常にゼロであり、シミュレーションから省略することができ、貴重なメモリとコンピューティングリソースを節約できる。
論文 参考訳(メタデータ) (2025-06-03T17:46:53Z) - Q-VLM: Post-training Quantization for Large Vision-Language Models [73.19871905102545]
本稿では,大規模視覚言語モデル(LVLM)の学習後量子化フレームワークを提案する。
視覚言語モデル全体の離散化誤差に大きな影響を及ぼす層間依存関係を抽出し、この依存関係を最適な量子化戦略に組み込む。
実験の結果,提案手法はメモリを2.78倍圧縮し,出力速度を約13B LLaVAモデルで1.44倍向上させることができた。
論文 参考訳(メタデータ) (2024-10-10T17:02:48Z) - Large Language Model-Aided Evolutionary Search for Constrained Multiobjective Optimization [15.476478159958416]
我々は,制約付き多目的最適化問題に対する進化探索を強化するために,大規模言語モデル(LLM)を用いる。
私たちの目標は、進化の集団の収束を早めることです。
論文 参考訳(メタデータ) (2024-05-09T13:44:04Z) - Accelerating Cutting-Plane Algorithms via Reinforcement Learning
Surrogates [49.84541884653309]
凸離散最適化問題に対する現在の標準的なアプローチは、カットプレーンアルゴリズムを使うことである。
多くの汎用カット生成アルゴリズムが存在するにもかかわらず、大規模な離散最適化問題は、難易度に悩まされ続けている。
そこで本研究では,強化学習による切削平面アルゴリズムの高速化手法を提案する。
論文 参考訳(メタデータ) (2023-07-17T20:11:56Z) - Learning Proximal Operators to Discover Multiple Optima [66.98045013486794]
非家族問題における近位演算子を学習するためのエンドツーエンド手法を提案する。
本手法は,弱い目的と穏やかな条件下では,世界規模で収束することを示す。
論文 参考訳(メタデータ) (2022-01-28T05:53:28Z) - Nonequilibrium Monte Carlo for unfreezing variables in hard
combinatorial optimization [1.1783108699768]
適応的勾配自由戦略を開発することにより,非局所非平衡モンテカルロ(NMC)アルゴリズムの量子インスパイアされたファミリーを導入する。
我々は、特殊解法と汎用解法の両方に対して、大幅な高速化と堅牢性を観察する。
論文 参考訳(メタデータ) (2021-11-26T17:45:32Z) - Two-Stage Stochastic Optimization via Primal-Dual Decomposition and Deep
Unrolling [86.85697555068168]
2段階のアルゴリズム最適化は、様々な工学や科学的応用において重要な役割を果たす。
特に長期変数と短期変数が制約の中で結合されている場合、アルゴリズムは効率的ではない。
PDD-SSCAが既存のソリューションよりも優れたパフォーマンスを達成できることを示します。
論文 参考訳(メタデータ) (2021-05-05T03:36:00Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - Online Model Selection for Reinforcement Learning with Function
Approximation [50.008542459050155]
我々は、$tildeO(L5/6 T2/3)$ regretで最適な複雑性に適応するメタアルゴリズムを提案する。
また、メタアルゴリズムは、インスタンス依存の後悔境界を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-11-19T10:00:54Z) - Evolutionary Algorithm and Multifactorial Evolutionary Algorithm on
Clustered Shortest-Path Tree problem [2.578242050187029]
CluSPT(Clustered Shortest-Path Tree Problem)はNPハード問題である。
探索処理の性能を向上させるために,2つの手法を提案する。
論文 参考訳(メタデータ) (2020-10-19T08:37:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。