論文の概要: EvoSpeak: Large Language Models for Interpretable Genetic Programming-Evolved Heuristics
- arxiv url: http://arxiv.org/abs/2510.02686v1
- Date: Fri, 03 Oct 2025 03:03:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.248063
- Title: EvoSpeak: Large Language Models for Interpretable Genetic Programming-Evolved Heuristics
- Title(参考訳): EvoSpeak: 解釈可能な遺伝的プログラミングを伴うヒューリスティックスのための大規模言語モデル
- Authors: Meng Xu, Jiao Liu, Yew Soon Ong,
- Abstract要約: EvoSpeakは、遺伝的(GP)と大きな言語モデル(LLM)を統合する新しいフレームワークで、効率、透明性、進化の適応性を高める。
EvoSpeakはより効果的なオブジェクトを生成し、進化効率を改善し、ユーザビリティを高める人間可読レポートを提供する。
- 参考スコア(独自算出の注目度): 37.03584206625906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Genetic programming (GP) has demonstrated strong effectiveness in evolving tree-structured heuristics for complex optimization problems. Yet, in dynamic and large-scale scenarios, the most effective heuristics are often highly complex, hindering interpretability, slowing convergence, and limiting transferability across tasks. To address these challenges, we present EvoSpeak, a novel framework that integrates GP with large language models (LLMs) to enhance the efficiency, transparency, and adaptability of heuristic evolution. EvoSpeak learns from high-quality GP heuristics, extracts knowledge, and leverages this knowledge to (i) generate warm-start populations that accelerate convergence, (ii) translate opaque GP trees into concise natural-language explanations that foster interpretability and trust, and (iii) enable knowledge transfer and preference-aware heuristic generation across related tasks. We verify the effectiveness of EvoSpeak through extensive experiments on dynamic flexible job shop scheduling (DFJSS), under both single- and multi-objective formulations. The results demonstrate that EvoSpeak produces more effective heuristics, improves evolutionary efficiency, and delivers human-readable reports that enhance usability. By coupling the symbolic reasoning power of GP with the interpretative and generative strengths of LLMs, EvoSpeak advances the development of intelligent, transparent, and user-aligned heuristics for real-world optimization problems.
- Abstract(参考訳): 遺伝的プログラミング(GP)は、複雑な最適化問題に対する木構造ヒューリスティックの進化に強い効果を示している。
しかし、動的かつ大規模なシナリオでは、最も効果的なヒューリスティックスは、しばしば非常に複雑であり、解釈可能性の妨げ、収束の鈍化、タスク間の伝達可能性の制限である。
これらの課題に対処するため,我々はGPを大規模言語モデル(LLM)に統合し,ヒューリスティック進化の効率,透明性,適応性を高める新しいフレームワークであるEvoSpeakを提案する。
EvoSpeakは高品質なGPヒューリスティックスから学び、知識を抽出し、この知識を活用する
(i)収束を加速する温暖なスタート集団を生成する。
(二)不透明なGP木を解釈性と信頼を育む簡潔な自然言語の説明に翻訳し、
三 知識伝達及び嗜好を考慮した関係課題間のヒューリスティック生成を可能にすること。
動的フレキシブル・ジョブショップスケジューリング(DFJSS)の広範な実験を通じて,単目的および多目的の定式化によるEvoSpeakの有効性を検証する。
その結果、EvoSpeakはより効果的なヒューリスティックスを生み出し、進化効率を改善し、ユーザビリティを高める人間可読レポートを提供することが示された。
GPのシンボリック推論パワーとLLMの解釈的および生成的強みを結合することにより、EvoSpeakは現実世界の最適化問題に対するインテリジェントで透明でユーザ指向のヒューリスティックの開発を進める。
関連論文リスト
- EcoLANG: Efficient and Effective Agent Communication Language Induction for Social Simulation [49.789575209305724]
大規模言語モデル(LLM)は、人間をロールプレイし、複雑な社会力学を再現する印象的な能力を実証している。
分散メカニズムやハイブリッドエージェントベースモデル(ABM)統合のような既存のソリューションは、推論コストや妥協精度、一般化可能性に対処できない。
社会シミュレーションのための効率的かつ効果的なエージェントコミュニケーション言語インジェクションであるEcoLANGを提案する。
論文 参考訳(メタデータ) (2025-05-11T08:51:56Z) - Evolutionary thoughts: integration of large language models and evolutionary algorithms [2.3633885460047765]
大規模言語モデル(LLM)は、自然言語とコードの両方を理解し、生成する際、注目すべき機能を明らかにしている。
本稿では,拡張解空間のより集中的な探索を可能にする進化的探索戦略を提案する。
論文 参考訳(メタデータ) (2025-05-09T03:32:18Z) - A Survey on Post-training of Large Language Models [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - Generate, Discriminate, Evolve: Enhancing Context Faithfulness via Fine-Grained Sentence-Level Self-Evolution [61.80716438091887]
GenDiE (Generate, Discriminate, Evolve) は、微粒な文レベルの最適化によって文脈忠実性を高める新しい自己進化フレームワークである。
応答中の各文を独立した最適化単位として扱うことで、GenDiEは以前のアプローチの限界に効果的に対処する。
ASQA(ドメイン内のLFQA)とConFiQAデータセットの実験は、GenDiEが忠実さと正しさの両方で様々なベースラインを超えることを示した。
論文 参考訳(メタデータ) (2025-03-03T16:08:33Z) - Generalization of Medical Large Language Models through Cross-Domain Weak Supervision [0.0]
医療用大規模言語モデル(MLLM)の生成能力を高めるためのICFTフレームワークを提案する。
ICFTはカリキュラムベースの学習、二段階記憶調整、パラメータ効率の微調整を組み合わせて、一般的な言語知識から強力なドメイン固有の専門知識への移行を可能にする。
論文 参考訳(メタデータ) (2025-02-02T16:05:23Z) - GANPrompt: Enhancing Robustness in LLM-Based Recommendations with GAN-Enhanced Diversity Prompts [15.920623515602038]
大規模言語モデル(LLM)は、素早い単語の影響を受けやすい。
本稿では,GAN(Generative Adversarial Networks)に基づく多次元LCMの多様性フレームワークであるGANPromptを提案する。
このフレームワークは,GAN生成技術とLLMの深い意味理解機能を統合することにより,多様なプロンプトに対するモデルの適応性と安定性を向上させる。
論文 参考訳(メタデータ) (2024-08-19T03:13:20Z) - NeuroPrune: A Neuro-inspired Topological Sparse Training Algorithm for Large Language Models [35.10729451729596]
自然言語処理(NLP)におけるトランスフォーマーベース言語モデルの普及
しかし、高価なトレーニングや推論は、その適用性に重大な障害となる。
脳神経ネットワークにインスパイアされた我々は、ネットワークトポロジーのレンズを通してスパーシティアプローチを探索する。
論文 参考訳(メタデータ) (2024-02-28T22:21:47Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - When Large Language Models Meet Evolutionary Algorithms: Potential Enhancements and Challenges [50.280704114978384]
事前訓練された大規模言語モデル(LLM)は、自然なテキストを生成する強力な能力を示す。
進化的アルゴリズム(EA)は、複雑な現実世界の問題に対する多様な解決策を発見できる。
論文 参考訳(メタデータ) (2024-01-19T05:58:30Z) - EvoPrompt: Connecting LLMs with Evolutionary Algorithms Yields Powerful Prompt Optimizers [67.64162164254809]
EvoPromptは離散的なプロンプト最適化のためのフレームワークである。
進化的アルゴリズム(EA)の概念は、優れた性能と高速収束を示すものである。
人為的なプロンプトと既存の方法で自動プロンプト生成を著しく上回っている。
論文 参考訳(メタデータ) (2023-09-15T16:50:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。