論文の概要: Evaluating LLMs for Combinatorial Optimization: One-Phase and Two-Phase Heuristics for 2D Bin-Packing
- arxiv url: http://arxiv.org/abs/2509.22255v2
- Date: Wed, 01 Oct 2025 14:33:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-02 14:33:21.787751
- Title: Evaluating LLMs for Combinatorial Optimization: One-Phase and Two-Phase Heuristics for 2D Bin-Packing
- Title(参考訳): 組合せ最適化のためのLCMの評価:2次元ビンパッキングのための1相と2相のヒューリスティックス
- Authors: Syed Mahbubul Huq, Daniel Brito, Daniel Sikar, Chris Child, Tillman Weyde, Rajesh Mojumder,
- Abstract要約: 本稿では,Large Language Models (LLM) の最適化能力を評価するための評価フレームワークを提案する。
我々は,LLMと進化的アルゴリズムを組み合わせた体系的手法を導入し,解の生成と洗練を行う。
- 参考スコア(独自算出の注目度): 0.6670498055582527
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents an evaluation framework for assessing Large Language Models' (LLMs) capabilities in combinatorial optimization, specifically addressing the 2D bin-packing problem. We introduce a systematic methodology that combines LLMs with evolutionary algorithms to generate and refine heuristic solutions iteratively. Through comprehensive experiments comparing LLM generated heuristics against traditional approaches (Finite First-Fit and Hybrid First-Fit), we demonstrate that LLMs can produce more efficient solutions while requiring fewer computational resources. Our evaluation reveals that GPT-4o achieves optimal solutions within two iterations, reducing average bin usage from 16 to 15 bins while improving space utilization from 0.76-0.78 to 0.83. This work contributes to understanding LLM evaluation in specialized domains and establishes benchmarks for assessing LLM performance in combinatorial optimization tasks.
- Abstract(参考訳): 本稿では,組合せ最適化におけるLarge Language Models (LLMs) の機能評価のための評価フレームワークについて述べる。
本稿では,LLMと進化的アルゴリズムを組み合わせてヒューリスティックな解を反復的に生成・洗練する手法を提案する。
従来の手法(Finite First-FitとHybrid First-Fit)と比較した総合的な実験により,LLMは計算資源を少なくしながらより効率的な解を生成できることが実証された。
評価の結果, GPT-4oは2回の反復で最適解を実現し, 平均ビン使用量を16ビンから15ビンに削減し, 空間利用率を0.76-0.78から0.83に改善した。
本研究は、特殊領域におけるLLM評価の理解に寄与し、組合せ最適化タスクにおけるLLM性能を評価するためのベンチマークを確立する。
関連論文リスト
- LLM4CMO: Large Language Model-aided Algorithm Design for Constrained Multiobjective Optimization [54.83882149157548]
大規模言語モデル(LLM)は、アルゴリズム設計を支援する新しい機会を提供する。
LLM4CMOは,2つの人口構成をもつ2段階のフレームワークをベースとした新しいCMOEAである。
LLMは複雑な進化最適化アルゴリズムの開発において効率的な共同設計者として機能する。
論文 参考訳(メタデータ) (2025-08-16T02:00:57Z) - GOLLuM: Gaussian Process Optimized LLMs -- Reframing LLM Finetuning through Bayesian Optimization [0.4037357056611557]
大規模言語モデル(LLM)は、その潜在空間における複雑な関係を符号化することができる。
LLMベースのディープカーネルを導入し、GPと共同で最適化し、両方の利点を維持する。
提案手法は, 静的LLM埋め込みと比較して, 高効率反応の発見率をほぼ2倍に向上させる。
論文 参考訳(メタデータ) (2025-04-08T17:59:57Z) - Make Optimization Once and for All with Fine-grained Guidance [78.14885351827232]
Learning to Optimize (L2O)は、統合ニューラルネットワークによる最適化効率を向上させる。
L2Oパラダイムは、例えば、リフィット、目に見えない解決策を反復的または直接的に生成するなど、大きな成果を達成する。
そこで本研究では,Diff-L2Oと呼ばれる学習最適化のための一般的なフレームワークについて検討した。
論文 参考訳(メタデータ) (2025-03-14T14:48:12Z) - Starjob: Dataset for LLM-Driven Job Shop Scheduling [3.435169201271934]
ジョブショップスケジューリング問題(JSSP)の最初の教師付きデータセットであるStarjobを紹介します。
LLaMA 8B 4ビット量子化モデルをLoRA法で微調整し、エンドツーエンドのスケジューリング手法を開発した。
提案手法は従来のプライオリティ・ディスパッチ・ルール(PDR)を超えるだけでなく,L2Dのような最先端のニューラルアプローチよりも顕著に改善されていることを示す。
論文 参考訳(メタデータ) (2025-02-26T15:20:01Z) - Can Large Language Models Be Trusted as Evolutionary Optimizers for Network-Structured Combinatorial Problems? [8.082897040940447]
大規模言語モデル(LLM)は、言語理解とさまざまなドメイン間の推論において強力な能力を示している。
本研究では,問題構造に係わるLLMの能力を評価するための体系的枠組みを提案する。
我々は、よく使われる進化的手法(EVO)を採用し、LLM演算子の出力忠実度を厳格に評価する包括的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-25T05:19:19Z) - LLM2: Let Large Language Models Harness System 2 Reasoning [65.89293674479907]
大規模言語モデル(LLM)は、無数のタスクにまたがって印象的な機能を示してきたが、時には望ましくない出力が得られる。
本稿では LLM とプロセスベースの検証器を組み合わせた新しいフレームワーク LLM2 を紹介する。
LLMs2は妥当な候補を生成するのに責任を持ち、検証者は望ましい出力と望ましくない出力を区別するためにタイムリーなプロセスベースのフィードバックを提供する。
論文 参考訳(メタデータ) (2024-12-29T06:32:36Z) - LLaMA-Berry: Pairwise Optimization for O1-like Olympiad-Level Mathematical Reasoning [56.273799410256075]
このフレームワークはMonte Carlo Tree Search (MCTS)と反復的なSelf-Refineを組み合わせて推論パスを最適化する。
このフレームワークは、一般的なベンチマークと高度なベンチマークでテストされており、探索効率と問題解決能力の点で優れた性能を示している。
論文 参考訳(メタデータ) (2024-10-03T18:12:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。