論文の概要: Robust Heuristic Algorithm Design with LLMs
- arxiv url: http://arxiv.org/abs/2510.08755v1
- Date: Thu, 09 Oct 2025 19:13:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:47.595888
- Title: Robust Heuristic Algorithm Design with LLMs
- Title(参考訳): LLMを用いたロバストヒューリスティックアルゴリズムの設計
- Authors: Pantea Karimi, Dany Rouhana, Pooria Namyar, Siva Kesava Reddy Kakarla, Venkat Arun, Behnaz Arzani,
- Abstract要約: 入力空間の領域に設計を特化させることにより,既存の手法よりも堅牢なアルゴリズムを実現できる。
- 参考スコア(独自算出の注目度): 4.286002690211674
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We posit that we can generate more robust and performant heuristics if we augment approaches using LLMs for heuristic design with tools that explain why heuristics underperform and suggestions about how to fix them. We find even simple ideas that (1) expose the LLM to instances where the heuristic underperforms; (2) explain why they occur; and (3) specialize design to regions in the input space, can produce more robust algorithms compared to existing techniques~ -- ~the heuristics we produce have a $\sim28\times$ better worst-case performance compared to FunSearch, improve average performance, and maintain the runtime.
- Abstract(参考訳): LLMを用いたヒューリスティック設計へのアプローチを,なぜヒューリスティックが不十分なのかを説明するツールと,その修正方法に関する提案で拡張すれば,より堅牢でパフォーマンスの高いヒューリスティックを生成できると仮定する。
1) ヒューリスティックな性能が低いインスタンスにLLMを公開し、(2) それらが発生する理由を説明し、(3) 入力空間内のリージョンに設計を特化し、既存の技術に比べてより堅牢なアルゴリズムを作成できるという単純なアイデアさえ見出します。
関連論文リスト
- Grammar-Guided Evolutionary Search for Discrete Prompt Optimisation [63.97051732013936]
本稿では,2段階からなる離散的な自動最適化に対する進化的探索手法を提案する。
第1段階では、文法誘導型遺伝的プログラミングが実行され、プロンプト生成プログラムを合成する。
第2段階では、局所探索を用いて、最高のパフォーマンスプログラムの周辺を探索する。
論文 参考訳(メタデータ) (2025-07-14T14:34:15Z) - Planning of Heuristics: Strategic Planning on Large Language Models with Monte Carlo Tree Search for Automating Heuristic Optimization [7.755152930120769]
ヒューリスティックス計画(PoH: Planning of Heuristics)は, LLM自己回帰とモンテカルロ木探索を統合する最適化手法である。
PoHは、そのパフォーマンスを評価し、改善提案を提供することで、生成した報酬を反復的に洗練する。
本稿では,旅行セールスマン問題とフローショップスケジューリング問題の解決にPoHを適用した。
論文 参考訳(メタデータ) (2025-02-17T04:35:01Z) - EVOLvE: Evaluating and Optimizing LLMs For In-Context Exploration [76.66831821738927]
大規模言語モデル(LLM)は、不確実性の下で最適な意思決定を必要とするシナリオにおいて、未調査のままである。
多くのアプリケーションに関係のあるステートレス強化学習環境である,帯域幅を最適に決定できる LLM の (in) 能力の測定を行う。
最適な探索アルゴリズムの存在を動機として,このアルゴリズム知識をLLMに統合する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-08T17:54:03Z) - On the Design and Analysis of LLM-Based Algorithms [74.7126776018275]
大規模言語モデル(LLM)はアルゴリズムのサブルーチンとして使用される。
LLMは素晴らしい経験的成功を収めた。
提案フレームワークは,LLMアルゴリズムの進歩を約束する。
論文 参考訳(メタデータ) (2024-07-20T07:39:07Z) - A Problem-Oriented Perspective and Anchor Verification for Code Optimization [43.28045750932116]
大規模言語モデル(LLM)は、様々なプログラミングタスクを解く際、顕著な能力を示している。
本稿では,LLMが最小実行時間に最適化する能力について検討する。
論文 参考訳(メタデータ) (2024-06-17T16:10:10Z) - How Efficient is LLM-Generated Code? A Rigorous & High-Standard Benchmark [39.13045037676502]
大規模言語モデル(LLM)の開発は、プログラム合成のフロンティアを著しく押し上げている。
ほとんどの評価フレームワークは生成したコードの(機能的な)正しさに重点を置いています。
我々は,LLMの効率的なコード生成能力を評価するための厳格で高水準なベンチマークENAMELを開発した。
論文 参考訳(メタデータ) (2024-06-10T04:19:20Z) - Learning to Hash Robustly, with Guarantees [79.68057056103014]
本稿では,理論的アルゴリズムと本質的に一致する最悪ケース保証を持つハミング空間のためのNSアルゴリズムを設計する。
理論的にも実用的にも、与えられたデータセットに対してアルゴリズムが最適化できる能力を評価する。
我々のアルゴリズムは、MNISTおよびImageNetデータセットに対する最悪のパフォーマンスのクエリを、1.8倍と2.1倍の精度でリコールする。
論文 参考訳(メタデータ) (2021-08-11T20:21:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。