論文の概要: Lyria: A General LLM-Driven Genetic Algorithm Framework for Problem Solving
- arxiv url: http://arxiv.org/abs/2507.04034v1
- Date: Sat, 05 Jul 2025 13:04:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.985371
- Title: Lyria: A General LLM-Driven Genetic Algorithm Framework for Problem Solving
- Title(参考訳): Lyria: 問題解決のための汎用LLM駆動型遺伝的アルゴリズムフレームワーク
- Authors: Weizhi Tang, Kwabena Nuamah, Vaishak Belle,
- Abstract要約: 本稿では,Large Language Models(LLM)の優れた意味理解能力と,遺伝的アルゴリズムの優れたグローバル検索と最適化能力を活用することを提案する。
一般LLM駆動型遺伝的アルゴリズムフレームワークLyriaを7つの必須成分から導入する。
- 参考スコア(独自算出の注目度): 4.854297874710511
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Large Language Models (LLMs) have demonstrated impressive abilities across various domains, they still struggle with complex problems characterized by multi-objective optimization, precise constraint satisfaction, immense solution spaces, etc. To address the limitation, drawing on the superior semantic understanding ability of LLMs and also the outstanding global search and optimization capability of genetic algorithms, we propose to capitalize on their respective strengths and introduce Lyria, a general LLM-driven genetic algorithm framework, comprising 7 essential components. Through conducting extensive experiments with 4 LLMs across 3 types of problems, we demonstrated the efficacy of Lyria. Additionally, with 7 additional ablation experiments, we further systematically analyzed and elucidated the factors that affect its performance.
- Abstract(参考訳): 大規模言語モデル(LLM)は、様々な領域で印象的な能力を示してきたが、それでも多目的最適化、厳密な制約満足度、巨大なソリューション空間などによって特徴づけられる複雑な問題に苦慮している。
遺伝的アルゴリズムの優れた意味理解能力と卓越したグローバル検索と最適化能力の限界に対処するため,それぞれの長所を活かし,7つの必須成分からなる一般LLM駆動型遺伝的アルゴリズムフレームワークであるLyriaを導入することを提案する。
3種類の問題に対して4LLMを用いた広範囲な実験を行い,Lyriaの有効性を実証した。
さらに,7種類のアブレーション実験を行い,その性能に影響を及ぼす因子を系統的に分析し,解明した。
関連論文リスト
- Towards Advanced Mathematical Reasoning for LLMs via First-Order Logic Theorem Proving [14.569345246475509]
大規模言語モデル(LLM)は、有望な一階述語論理(FOL)推論能力を示している。
しかし、多段階のFOL還元を含む複雑な数学的推論におけるそれらの効果はいまだ研究されていない。
LLMの生成戦略の多様性と再現性を向上する自己適応型ソリューションであるDREAMを提案する。
論文 参考訳(メタデータ) (2025-06-20T16:09:56Z) - Truly Assessing Fluid Intelligence of Large Language Models through Dynamic Reasoning Evaluation [75.26829371493189]
大きな言語モデル(LLM)は、人間のような思考を反映する印象的な推論能力を示している。
既存の推論ベンチマークでは、ドメイン固有の知識(結晶化インテリジェンス)に焦点を当てるか、解釈可能性に欠ける。
階層的認知フレームワークを基盤とした動的推論評価ベンチマークであるDRE-Benchを提案する。
論文 参考訳(メタデータ) (2025-06-03T09:01:08Z) - LLM-Independent Adaptive RAG: Let the Question Speak for Itself [47.60917219813637]
大型言語モデル (LLM) は幻覚を起こす傾向があり、検索型拡張生成 (RAG) がこれを助けているが、誤報のリスクが高い計算コストが高い。
本研究では,外部情報に基づく軽量LLM非依存適応検索手法を提案する。
論文 参考訳(メタデータ) (2025-05-07T08:58:52Z) - Position: Scaling LLM Agents Requires Asymptotic Analysis with LLM Primitives [8.713076928533846]
難しい問題をサブプロブレムに分解することで、解き易く、より効率的に解決できる。
本稿は,LLMプリミティブを用いた解析が,そのようなシステムの効率性について考慮する必要があることを論じる。
論文 参考訳(メタデータ) (2025-02-04T20:47:43Z) - Are Language Models Up to Sequential Optimization Problems? From Evaluation to a Hegelian-Inspired Enhancement [0.0]
大規模言語モデル(LLM)は多くの分野にまたがって印象的な能力を示している。
本稿では、逐次最適化問題(SOP)におけるLLMの熟練度について考察する。
We introduced WorldGen, a dynamic framework for generate unseen SOPs with controllable complexities。
ヘーゲル弁証学の影響力ある枠組みに触発され,SOP文脈におけるLLMの性能が著しく向上することを示すACEを提案する。
論文 参考訳(メタデータ) (2025-02-04T18:47:31Z) - EVOLvE: Evaluating and Optimizing LLMs For Exploration [76.66831821738927]
大規模言語モデル(LLM)は、不確実性の下で最適な意思決定を必要とするシナリオにおいて、未調査のままである。
多くのアプリケーションに関係のあるステートレス強化学習環境である,帯域幅を最適に決定できる LLM の (in) 能力の測定を行う。
最適な探索アルゴリズムの存在を動機として,このアルゴリズム知識をLLMに統合する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-08T17:54:03Z) - Control Large Language Models via Divide and Conquer [94.48784966256463]
本稿では,Lexically Constrained Generation(LCG)に着目し,大規模言語モデル(LLM)のプロンプトベース制御による制御可能生成について検討する。
我々は,レキシカル制約を満たすためのLLMの性能を,プロンプトベース制御により評価し,下流アプリケーションでの有効性を検証した。
論文 参考訳(メタデータ) (2024-10-06T21:20:06Z) - On the Design and Analysis of LLM-Based Algorithms [74.7126776018275]
大規模言語モデル(LLM)はアルゴリズムのサブルーチンとして使用される。
LLMは素晴らしい経験的成功を収めた。
提案フレームワークは,LLMアルゴリズムの進歩を約束する。
論文 参考訳(メタデータ) (2024-07-20T07:39:07Z) - Navigating the Labyrinth: Evaluating and Enhancing LLMs' Ability to Reason About Search Problems [59.72548591120689]
我々は,11種類の検索問題を含む新しいベンチマークであるSearchBenchを紹介する。
もっとも先進的なLCMでさえ、これらの問題をエンドツーエンドのテキストで解決することができないことを示す。
LLMにその問題を解決するコードを生成するように指示することは助けになるが、GPT4のパフォーマンスは11.7%向上した。
論文 参考訳(メタデータ) (2024-06-18T00:44:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。