論文の概要: Re-evaluating LLM-based Heuristic Search: A Case Study on the 3D Packing Problem
- arxiv url: http://arxiv.org/abs/2509.02297v1
- Date: Tue, 02 Sep 2025 13:18:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:04.040339
- Title: Re-evaluating LLM-based Heuristic Search: A Case Study on the 3D Packing Problem
- Title(参考訳): LLMに基づくヒューリスティックサーチの再評価:3次元パッケージング問題の一事例
- Authors: Guorui Quan, Mingfei Sun, Manuel López-Ibáñez,
- Abstract要約: 大規模言語モデルは、検索のためのコードを生成することができるが、そのアプリケーションは、ヒューマンクラフトフレームワーク内の単純な機能を調整することに限定されている。
制約付き3Dパッキング問題に対する完全解法の構築をLCMで行う。
この結果から,現在のLLMによる自動設計における2つの大きな障壁が浮かび上がっている。
- 参考スコア(独自算出の注目度): 3.473102563471572
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The art of heuristic design has traditionally been a human pursuit. While Large Language Models (LLMs) can generate code for search heuristics, their application has largely been confined to adjusting simple functions within human-crafted frameworks, leaving their capacity for broader innovation an open question. To investigate this, we tasked an LLM with building a complete solver for the constrained 3D Packing Problem. Direct code generation quickly proved fragile, prompting us to introduce two supports: constraint scaffolding--prewritten constraint-checking code--and iterative self-correction--additional refinement cycles to repair bugs and produce a viable initial population. Notably, even within a vast search space in a greedy process, the LLM concentrated its efforts almost exclusively on refining the scoring function. This suggests that the emphasis on scoring functions in prior work may reflect not a principled strategy, but rather a natural limitation of LLM capabilities. The resulting heuristic was comparable to a human-designed greedy algorithm, and when its scoring function was integrated into a human-crafted metaheuristic, its performance rivaled established solvers, though its effectiveness waned as constraints tightened. Our findings highlight two major barriers to automated heuristic design with current LLMs: the engineering required to mitigate their fragility in complex reasoning tasks, and the influence of pretrained biases, which can prematurely narrow the search for novel solutions.
- Abstract(参考訳): ヒューリスティックデザインの芸術は伝統的に人間の追求であった。
大きな言語モデル(LLM)は、探索ヒューリスティックスのためのコードを生成することができるが、そのアプリケーションは、人為的なフレームワーク内の単純な機能を調整することに限定されており、より広範なイノベーションの能力はオープンな問題のままである。
そこで我々は,制約付き3Dパッキング問題に対する完全解法を構築することをLCMに課した。
直接コード生成はすぐに脆弱であることが判明し、制約スキャフォールディング--事前記述された制約チェックコード--と反復的な自己補正--バグの修復と実行可能な初期人口の生成のための追加的な改善サイクルの2つのサポートを導入しました。
特に、グリーディ過程において広大な探索空間内でも、LLMはスコアリング関数の精細化に集中していた。
これは、先行作業におけるスコアリング関数の強調は、原則的な戦略ではなく、LLM能力の自然な制限を反映しているかもしれないことを示唆している。
結果として得られたヒューリスティックは、人間の設計した欲求アルゴリズムに匹敵するものであり、そのスコアリング機能が人造メタヒューリスティックに統合されると、その性能は確立された解法に匹敵したが、制約が厳しくなるにつれてその効果は低下した。
本研究は,従来のLCMによる自動ヒューリスティック設計における2つの大きな障壁を浮き彫りにするものである。
関連論文リスト
- LLM4CMO: Large Language Model-aided Algorithm Design for Constrained Multiobjective Optimization [54.83882149157548]
大規模言語モデル(LLM)は、アルゴリズム設計を支援する新しい機会を提供する。
LLM4CMOは,2つの人口構成をもつ2段階のフレームワークをベースとした新しいCMOEAである。
LLMは複雑な進化最適化アルゴリズムの開発において効率的な共同設計者として機能する。
論文 参考訳(メタデータ) (2025-08-16T02:00:57Z) - ReflecSched: Solving Dynamic Flexible Job-Shop Scheduling via LLM-Powered Hierarchical Reflection [4.101501114944147]
ReflecSchedは、直接スケジューラ以上の LLM を強化するフレームワークである。
複数の計画地平線にまたがるシミュレーションを、簡潔で自然言語の要約に蒸留する。
この要約は、最終的な意思決定モジュールのプロンプトに統合され、非ミオピックアクションを生成するためのガイドとなる。
論文 参考訳(メタデータ) (2025-08-03T11:26:35Z) - ORMind: A Cognitive-Inspired End-to-End Reasoning Framework for Operations Research [56.961539386979354]
ORMindは認知にインスパイアされたフレームワークで、反ファクト推論を通じて最適化を強化する。
提案手法は,要求を数学的モデルや実行可能なコードに変換するエンド・ツー・エンドのワークフローを実装し,人間の認識をエミュレートする。
現在はLenovoのAIアシスタントで内部でテストされており、ビジネスとコンシューマの両方の最適化機能を強化する予定である。
論文 参考訳(メタデータ) (2025-06-02T05:11:21Z) - RedAHD: Reduction-Based End-to-End Automatic Heuristic Design with Large Language Models [14.544461392180668]
我々は,これらのLCMに基づく設計手法を人間を必要とせずに動作させることができる,RedAHDという新しいエンドツーエンドフレームワークを提案する。
より具体的には、RedAHD は LLM を用いて還元プロセスの自動化、すなわち手元のCOPをよりよく理解された類似のCOPに変換する。
6つのCOPで評価した実験結果から,RedAHDは人間の関与を最小限に抑えた最先端の手法よりも設計や改善が可能であることが示された。
論文 参考訳(メタデータ) (2025-05-26T17:21:16Z) - ConceptAgent: LLM-Driven Precondition Grounding and Tree Search for Robust Task Planning and Execution [33.252158560173655]
ConceptAgentは、非構造化環境でのタスク実行用に設計された自然言語駆動のロボットプラットフォームである。
本研究では,1)不可能な行動の防止と回復を目的とした述語接地,2)自己反射を用いたLLM誘導モンテカルロ木探索の具体化など,欠点を抑えるために設計されたイノベーションを提案する。
論文 参考訳(メタデータ) (2024-10-08T15:05:40Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - What's Wrong with Your Code Generated by Large Language Models? An Extensive Study [80.18342600996601]
大規模言語モデル(LLM)は、標準解に比べて短いがより複雑なコードを生成する。
3つのカテゴリと12のサブカテゴリを含む誤ったコードに対するバグの分類を開発し、一般的なバグタイプに対する根本原因を分析する。
そこで本研究では,LLMがバグタイプやコンパイラフィードバックに基づいて生成したコードを批判し,修正することのできる,自己批判を導入した新たな学習自由反復手法を提案する。
論文 参考訳(メタデータ) (2024-07-08T17:27:17Z) - Trust the PRoC3S: Solving Long-Horizon Robotics Problems with LLMs and Constraint Satisfaction [38.683780057806516]
ロボット工学を応用した事前学習型大規模言語モデル(LLM)の最近の進歩は、単純なロボットタスクにおいてオープンな目標を達成するために、個々のスキルのセットをシークエンシングする能力を示している。
本稿では,機械的,幾何学的,物理的制約の集合の違反を避けることが必要な,連続パラメータ化スキルの集合に対するLLM計画の課題について検討する。
3つの異なる3次元領域にわたる実験により、提案手法であるPRoC3Sは、既存のベースラインよりもはるかに効率的かつ効果的に、連続パラメータに現実的な制約を課した幅広い複雑な操作タスクを解くことができることを示した。
論文 参考訳(メタデータ) (2024-06-08T20:56:14Z) - Accelerate Presolve in Large-Scale Linear Programming via Reinforcement
Learning [92.31528918811007]
本稿では,P1)-(P3) を同時に扱うための簡易かつ効率的な強化学習フレームワーク,すなわち,事前解決のための強化学習(RL4Presolve)を提案する。
2つの解法と8つのベンチマーク(実世界と合成)の実験により、RL4Presolveは大規模LPの解法効率を大幅に改善することを示した。
論文 参考訳(メタデータ) (2023-10-18T09:51:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。