論文の概要: A Hybrid GA LLM Framework for Structured Task Optimization
- arxiv url: http://arxiv.org/abs/2506.07483v2
- Date: Mon, 16 Jun 2025 05:48:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 13:01:17.42256
- Title: A Hybrid GA LLM Framework for Structured Task Optimization
- Title(参考訳): 構造化タスク最適化のためのハイブリッドGA LLMフレームワーク
- Authors: William Shum, Rachel Chan, Jonas Lin, Benny Feng, Patrick Lau,
- Abstract要約: GA LLMは、遺伝的アルゴリズムと大規模言語モデルを組み合わせて、厳密な制約の下で構造化された生成タスクを処理するハイブリッドフレームワークである。
言語モデルはドメイン知識と創造的バリエーションを提供し、遺伝的アルゴリズムは構造的整合性とグローバルな最適化を保証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: GA LLM is a hybrid framework that combines Genetic Algorithms with Large Language Models to handle structured generation tasks under strict constraints. Each output, such as a plan or report, is treated as a gene, and evolutionary operations like selection, crossover, and mutation are guided by the language model to iteratively improve solutions. The language model provides domain knowledge and creative variation, while the genetic algorithm ensures structural integrity and global optimization. GA LLM has proven effective in tasks such as itinerary planning, academic outlining, and business reporting, consistently producing well structured and requirement satisfying results. Its modular design also makes it easy to adapt to new tasks. Compared to using a language model alone, GA LLM achieves better constraint satisfaction and higher quality solutions by combining the strengths of both components.
- Abstract(参考訳): GA LLMは、遺伝的アルゴリズムと大規模言語モデルを組み合わせて、厳密な制約の下で構造化された生成タスクを処理するハイブリッドフレームワークである。
計画やレポートなどの各アウトプットは遺伝子として扱われ、選択、クロスオーバー、突然変異といった進化的な操作は言語モデルによって誘導され、反復的にソリューションを改善する。
言語モデルはドメイン知識と創造的バリエーションを提供し、遺伝的アルゴリズムは構造的整合性とグローバルな最適化を保証する。
GA LLMは、反復計画、学術的アウトライン化、ビジネス報告といったタスクに有効であることが証明され、しっかりと構造化され、要求を満たす結果が得られている。
モジュラーデザインにより、新しいタスクへの適応も容易になる。
言語モデルのみを使用する場合と比較して,GA LLMは両コンポーネントの強みを組み合わせることで,制約満足度の向上と高品質なソリューションを実現する。
関連論文リスト
- EALG: Evolutionary Adversarial Generation of Language Model-Guided Generators for Combinatorial Optimization [5.575239967310329]
EALG(Evolutionary Adrial Generation of Language Model Generators)は,大規模言語モデル(LLM)を用いた最適化問題インスタンスとその対応解法を共進化させる新しいフレームワークである。
EALGは、動的にインスタンス生成手順を進化させ、ますます難しい問題を生み出すとともに、アルゴリズム構造によって導かれるLLMとの相互作用を通じて、対向アルゴリズムを同時に適応させる。
この研究は、インスタンス生成とソルバ設計を統合した最適化のための新しいパラダイムを探求し、その結果、最先端のパフォーマンスを実現した。
論文 参考訳(メタデータ) (2025-06-03T08:13:41Z) - CALM: Co-evolution of Algorithms and Language Model for Automatic Heuristic Design [11.639825726501659]
大規模言語モデル(LLM)は、従来のコストのごく一部で自律的にハイパフォーマンスを発見できる。
本稿では,言語指導と数値指導を組み合わせたハイブリッドフレームワークを提案する。
本手法は,様々な最適化タスクにおいて,SOTA(State-of-the-art)ベースラインを上回っている。
論文 参考訳(メタデータ) (2025-05-18T07:48:47Z) - Can Large Language Models Be Trusted as Evolutionary Optimizers for Network-Structured Combinatorial Problems? [8.082897040940447]
大きな言語モデル(LLM)は、言語理解とさまざまなドメイン間の推論において素晴らしい能力を持っています。
本研究では,問題構造に係わるLLMの能力を評価するための体系的枠組みを提案する。
我々は,従来の個人レベルのアプローチと比較して,効率を著しく向上するコスト効率の高い集団レベルの最適化戦略を開発する。
論文 参考訳(メタデータ) (2025-01-25T05:19:19Z) - Interactive and Expressive Code-Augmented Planning with Large Language Models [62.799579304821826]
大きな言語モデル(LLM)は、常識的推論と対話的な意思決定において強力な能力を示す。
近年,制御フローなどのコード・アジャセント技術を用いてLCM出力を構造化し,計画性能を向上させる技術が提案されている。
完全コード表現で動的なLEM計画手法であるREPL-Planを提案する。
論文 参考訳(メタデータ) (2024-11-21T04:23:17Z) - Bridging Large Language Models and Optimization: A Unified Framework for Text-attributed Combinatorial Optimization [21.232626415696267]
Language-based Neural COPsolvr (LNCS)は、多種多様なテキスト対応COPのエンドツーエンド解決のために統一された新しいフレームワークである。
広汎な実験により、LNCSの有効性と一般化性が検証され、現実世界のCOPアプリケーションのための統一的で実用的なフレームワークとしての可能性を強調した。
論文 参考訳(メタデータ) (2024-08-22T08:42:44Z) - AgentGen: Enhancing Planning Abilities for Large Language Model based Agent via Environment and Task Generation [81.32722475387364]
大規模言語モデルに基づくエージェントが注目され、ますます人気が高まっている。
計画能力は LLM ベースのエージェントの重要な構成要素であり、通常は初期状態から望ましい目標を達成する必要がある。
近年の研究では、専門家レベルの軌跡を指導訓練用LLMに活用することで、効果的に計画能力を向上させることが示されている。
論文 参考訳(メタデータ) (2024-08-01T17:59:46Z) - A Simple but Effective Approach to Improve Structured Language Model
Output for Information Extraction [11.165093163378152]
大規模言語モデル(LLM)は、命令に従って非構造化自然言語を生成する際、印象的な能力を示した。
本稿では,その構造的テキスト生成能力を高めるために,効率的なG&O手法を提案する。
論文 参考訳(メタデータ) (2024-02-20T20:42:02Z) - When Large Language Models Meet Evolutionary Algorithms: Potential Enhancements and Challenges [50.280704114978384]
事前訓練された大規模言語モデル(LLM)は、自然なテキストを生成する強力な能力を示す。
進化的アルゴリズム(EA)は、複雑な現実世界の問題に対する多様な解決策を発見できる。
論文 参考訳(メタデータ) (2024-01-19T05:58:30Z) - EvoPrompt: Connecting LLMs with Evolutionary Algorithms Yields Powerful Prompt Optimizers [67.64162164254809]
EvoPromptは離散的なプロンプト最適化のためのフレームワークである。
進化的アルゴリズム(EA)の概念は、優れた性能と高速収束を示すものである。
人為的なプロンプトと既存の方法で自動プロンプト生成を著しく上回っている。
論文 参考訳(メタデータ) (2023-09-15T16:50:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。