論文の概要: Leveraging Large Language Models to Develop Heuristics for Emerging Optimization Problems
- arxiv url: http://arxiv.org/abs/2503.03350v1
- Date: Wed, 05 Mar 2025 10:22:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:52:26.117504
- Title: Leveraging Large Language Models to Develop Heuristics for Emerging Optimization Problems
- Title(参考訳): 大規模言語モデルを活用した最適化問題の創発的解法
- Authors: Thomas Bömer, Nico Koltermann, Max Disselnmeyer, Laura Dörr, Anne Meyer,
- Abstract要約: 組合せ最適化問題は、しばしば効率的な解を生成するアルゴリズムに依存する。
人工知能の最近の進歩は、進化の枠組みを通じて生成を自動化する可能性を実証している。
本研究では,問題固有の記述を組み込んだコンテキスト進化型ヒューリスティックスフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Combinatorial optimization problems often rely on heuristic algorithms to generate efficient solutions. However, the manual design of heuristics is resource-intensive and constrained by the designer's expertise. Recent advances in artificial intelligence, particularly large language models (LLMs), have demonstrated the potential to automate heuristic generation through evolutionary frameworks. Recent works focus only on well-known combinatorial optimization problems like the traveling salesman problem and online bin packing problem when designing constructive heuristics. This study investigates whether LLMs can effectively generate heuristics for niche, not yet broadly researched optimization problems, using the unit-load pre-marshalling problem as an example case. We propose the Contextual Evolution of Heuristics (CEoH) framework, an extension of the Evolution of Heuristics (EoH) framework, which incorporates problem-specific descriptions to enhance in-context learning during heuristic generation. Through computational experiments, we evaluate CEoH and EoH and compare the results. Results indicate that CEoH enables smaller LLMs to generate high-quality heuristics more consistently and even outperform larger models. Larger models demonstrate robust performance with or without contextualized prompts. The generated heuristics exhibit scalability to diverse instance configurations.
- Abstract(参考訳): 組合せ最適化問題は、しばしば効率的な解を生成するためにヒューリスティックアルゴリズムに依存する。
しかし、ヒューリスティックスのマニュアルデザインは、設計者の専門知識によって資源集約的で制約されている。
人工知能、特に大規模言語モデル(LLM)の最近の進歩は、進化的フレームワークを通じてヒューリスティック生成を自動化する可能性を実証している。
最近の研究は、旅行セールスマン問題や建設的ヒューリスティックを設計する際のオンラインビンパッキング問題など、よく知られた組合せ最適化問題にのみ焦点をあてている。
本研究では,LLMがニッチに対するヒューリスティックを効果的に生成できるかどうかを,単位負荷前マーシャリング問題を例として用いて検討した。
ヒューリスティックス(EoH)フレームワークの拡張であるCEoH(Contextual Evolution of Heuristics)フレームワークを提案する。
計算実験により,CEoHとEoHを評価し,結果を比較した。
その結果、CEoH はより小さな LLM により、より一貫性のある高品質なヒューリスティックを生成でき、さらに大きなモデルよりも優れることがわかった。
より大きなモデルは、文脈化されたプロンプトの有無に関わらず、堅牢なパフォーマンスを示す。
生成されたヒューリスティックは、多様なインスタンス構成に対するスケーラビリティを示す。
関連論文リスト
- Improving Existing Optimization Algorithms with LLMs [0.9668407688201361]
本稿では,Large Language Models (LLM) が既存の最適化アルゴリズムをどのように拡張するかを検討する。
事前学習した知識を用いて、革新的なバリエーションと実装戦略を提案する能力を示す。
以上の結果から, GPT-4oによる代替案はCMSAのエキスパート設計よりも優れていた。
論文 参考訳(メタデータ) (2025-02-12T10:58:57Z) - Bridging Visualization and Optimization: Multimodal Large Language Models on Graph-Structured Combinatorial Optimization [56.17811386955609]
グラフ構造上の課題は、その非線形で複雑な性質のために本質的に困難である。
本研究では,高次構造的特徴を正確に保存するために,グラフを画像に変換する手法を提案する。
マルチモーダルな大規模言語モデルと単純な検索手法を組み合わせた革新的なパラダイムを生かし、新しい効果的なフレームワークを開発することを目指す。
論文 参考訳(メタデータ) (2025-01-21T08:28:10Z) - QUBE: Enhancing Automatic Heuristic Design via Quality-Uncertainty Balanced Evolution [14.131178103518907]
Quality-Uncertainty Balanced Evolution (QUBE)は、FunSearchフレームワーク内で優先度基準を再定義することによって、LLM+EAメソッドを強化する新しいアプローチである。
QUBEは、提案した不確実性-包括的品質基準に基づいて、品質-不確実性トレードオフ基準(QUTC)を採用している。
NP完全問題に対する広範な実験を通じて、QUBEはFunSearchやベースラインメソッドよりも大きなパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2024-12-30T04:05:22Z) - A Survey on Inference Optimization Techniques for Mixture of Experts Models [50.40325411764262]
大規模Mixture of Experts(MoE)モデルは、条件計算によるモデル容量と計算効率の向上を提供する。
これらのモデル上で推論をデプロイし実行することは、計算資源、レイテンシ、エネルギー効率において大きな課題を示す。
本調査では,システムスタック全体にわたるMoEモデルの最適化手法について分析する。
論文 参考訳(メタデータ) (2024-12-18T14:11:15Z) - Large Language Models for Combinatorial Optimization of Design Structure Matrix [4.513609458468522]
エンジニアリングアプリケーションの効率と性能を改善するためには、組合せ最適化(CO)が不可欠である。
実世界の工学的問題に関しては、純粋数学的推論に基づくアルゴリズムは限定的であり、最適化に必要な文脈ニュアンスを捉えることができない。
本研究では,工学的CO問題の解法におけるLarge Language Models (LLMs) の可能性について,その推論能力と文脈的知識を活用して検討する。
論文 参考訳(メタデータ) (2024-11-19T15:39:51Z) - Multi-objective Evolution of Heuristic Using Large Language Model [29.337470185034555]
探索を多目的最適化問題としてモデル化し、最適性能を超える追加の実践的基準を導入することを検討する。
我々は,最初の多目的探索フレームワークである多目的ヒューリスティック進化(MEoH)を提案する。
論文 参考訳(メタデータ) (2024-09-25T12:32:41Z) - Evolution of Heuristics: Towards Efficient Automatic Algorithm Design Using Large Language Model [22.64392837434924]
EoHは自然言語における思考の考えを表しており、これは「思考」と呼ばれている。
それらはLarge Language Models (LLM) によって実行可能なコードに変換される。
EoHは、オンラインのビンパッキング問題に対して、広く使われている人手作りのベースラインアルゴリズムを著しく上回っている。
論文 参考訳(メタデータ) (2024-01-04T04:11:59Z) - SEGO: Sequential Subgoal Optimization for Mathematical Problem-Solving [64.38649623473626]
大規模言語モデル(LLM)は人工知能の大幅な進歩を導いた。
数学的問題を解く能力を高めるために,textbfSEquential subtextbfGoal textbfOptimization (SEGO) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-19T17:56:40Z) - Neural Combinatorial Optimization: a New Player in the Field [69.23334811890919]
本稿では,ニューラルネットワークに基づくアルゴリズムの古典的最適化フレームワークへの導入に関する批判的分析を行う。
性能, 転送可能性, 計算コスト, 大規模インスタンスなど, これらのアルゴリズムの基本的側面を分析するために, 総合的研究を行った。
論文 参考訳(メタデータ) (2022-05-03T07:54:56Z) - Machine Learning Framework for Quantum Sampling of Highly-Constrained,
Continuous Optimization Problems [101.18253437732933]
本研究では,連続空間の逆設計問題を,制約のないバイナリ最適化問題にマッピングする,汎用的な機械学習ベースのフレームワークを開発する。
本研究では, 熱発光トポロジを熱光応用に最適化し, (ii) 高効率ビームステアリングのための拡散メタグレーティングを行うことにより, 2つの逆設計問題に対するフレームワークの性能を示す。
論文 参考訳(メタデータ) (2021-05-06T02:22:23Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。