論文の概要: QUBE: Enhancing Automatic Heuristic Design via Quality-Uncertainty Balanced Evolution
- arxiv url: http://arxiv.org/abs/2412.20694v2
- Date: Tue, 18 Feb 2025 03:53:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:05:03.376500
- Title: QUBE: Enhancing Automatic Heuristic Design via Quality-Uncertainty Balanced Evolution
- Title(参考訳): QUBE:品質不確実性バランス進化による自動ヒューリスティック設計の強化
- Authors: Zijie Chen, Zhanchao Zhou, Yu Lu, Renjun Xu, Lili Pan, Zhenzhong Lan,
- Abstract要約: Quality-Uncertainty Balanced Evolution (QUBE)は、FunSearchフレームワーク内で優先度基準を再定義することによって、LLM+EAメソッドを強化する新しいアプローチである。
QUBEは、提案した不確実性-包括的品質基準に基づいて、品質-不確実性トレードオフ基準(QUTC)を採用している。
NP完全問題に対する広範な実験を通じて、QUBEはFunSearchやベースラインメソッドよりも大きなパフォーマンス改善を示す。
- 参考スコア(独自算出の注目度): 14.131178103518907
- License:
- Abstract: Solving NP-hard problems traditionally relies on heuristics, yet manually designing effective heuristics for complex problems remains a significant challenge. While recent advancements like FunSearch have shown that large language models (LLMs) can be integrated into evolutionary algorithms (EAs) for heuristic design, their potential is hindered by limitations in balancing exploitation and exploration. We introduce Quality-Uncertainty Balanced Evolution (QUBE), a novel approach that enhances LLM+EA methods by redefining the priority criterion within the FunSearch framework. QUBE employs the Quality-Uncertainty Trade-off Criterion (QUTC), based on our proposed Uncertainty-Inclusive Quality metric, to evaluate and guide the evolutionary process. Through extensive experiments on challenging NP-complete problems, QUBE demonstrates significant performance improvements over FunSearch and baseline methods. Our code are available at https://github.com/zzjchen/QUBE\_code.
- Abstract(参考訳): NPハード問題の解法は伝統的にヒューリスティックに頼っているが、複雑な問題に対して効果的なヒューリスティックを手作業で設計することは大きな課題である。
FunSearchのような最近の進歩は、大規模言語モデル(LLM)がヒューリスティックデザインのために進化的アルゴリズム(EA)に統合できることを示してきたが、それらのポテンシャルは、エクスプロイトと探索のバランスの限界によって妨げられている。
本稿では,FunSearch フレームワーク内で優先度基準を再定義することによって LLM+EA メソッドを強化する新しいアプローチである Quality-Uncertainity Balanced Evolution (QUBE) を紹介する。
QUBEは、我々の提案した不確実性-包括的品質基準に基づく品質-不確実性トレードオフ基準(QUTC)を用いて、進化過程を評価し、導く。
NP完全問題に対する広範な実験を通じて、QUBEはFunSearchやベースラインメソッドよりも大きなパフォーマンス改善を示す。
私たちのコードはhttps://github.com/zzjchen/QUBE\_code.comから入手可能です。
関連論文リスト
- Lingma SWE-GPT: An Open Development-Process-Centric Language Model for Automated Software Improvement [62.94719119451089]
Lingma SWE-GPTシリーズは、現実世界のコード提出活動から学び、シミュレーションする。
Lingma SWE-GPT 72BはGitHubの30.20%の問題を解決する。
論文 参考訳(メタデータ) (2024-11-01T14:27:16Z) - Automatic programming via large language models with population self-evolution for dynamic job shop scheduling problem [12.535474591707105]
本稿では,人間専門家の自己回帰的デザイン戦略に触発された一般検索フレームワークである,新規な自己進化的手法を提案する。
実験の結果,提案手法はGP, GEP, エンドツーエンドの深層強化学習法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-10-30T02:54:31Z) - Deep Insights into Automated Optimization with Large Language Models and Evolutionary Algorithms [3.833708891059351]
大きな言語モデル(LLM)と進化的アルゴリズム(EA)は、制限を克服し、最適化をより自動化するための有望な新しいアプローチを提供する。
LLMは最適化戦略の生成、洗練、解釈が可能な動的エージェントとして機能する。
EAは進化作用素を通して、複雑な解空間を効率的に探索する。
論文 参考訳(メタデータ) (2024-10-28T09:04:49Z) - Multi-objective Evolution of Heuristic Using Large Language Model [29.337470185034555]
ヒューリスティックスは、様々な探索と最適化の問題に取り組むために一般的に用いられる。
最近の研究は、その強力な言語と符号化能力を活用して、大規模言語モデル(LLM)を自動検索に取り入れている。
本稿では,多目的最適化問題として探索をモデル化し,最適性能以外の実践的基準を導入することを提案する。
論文 参考訳(メタデータ) (2024-09-25T12:32:41Z) - WESE: Weak Exploration to Strong Exploitation for LLM Agents [95.6720931773781]
本稿では,オープンワールド対話型タスクの解法において,LLMエージェントの強化を目的としたWeak Exploration to Strong Exploitation (WESE)を提案する。
WESEは、探究と搾取のプロセスを分離し、費用対効果の弱いエージェントを用いて世界的知識の探索を行う。
次に、獲得した知識を格納し、タスク関連知識を抽出する知識グラフベースの戦略を導入する。
論文 参考訳(メタデータ) (2024-04-11T03:31:54Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - Evolution of Heuristics: Towards Efficient Automatic Algorithm Design Using Large Language Model [22.64392837434924]
EoHは自然言語における思考の考えを表しており、これは「思考」と呼ばれている。
それらはLarge Language Models (LLM) によって実行可能なコードに変換される。
EoHは、オンラインのビンパッキング問題に対して、広く使われている人手作りのベースラインアルゴリズムを著しく上回っている。
論文 参考訳(メタデータ) (2024-01-04T04:11:59Z) - Large Language Models as Evolutionary Optimizers [37.92671242584431]
本稿では,大言語モデル(LLM)を進化論として初めて研究する。
主な利点は、最小限のドメイン知識と人間の努力が必要であり、モデルに追加のトレーニングは必要ありません。
また,進化探索における自己適応機構の有効性についても検討した。
論文 参考訳(メタデータ) (2023-10-29T15:44:52Z) - OpenAGI: When LLM Meets Domain Experts [51.86179657467822]
ヒューマン・インテリジェンス(HI)は、複雑なタスクを解くための基本的なスキルの組み合わせに長けている。
この機能は人工知能(AI)にとって不可欠であり、包括的なAIエージェントに組み込まれるべきである。
マルチステップで現実的なタスクを解決するために設計されたオープンソースのプラットフォームであるOpenAGIを紹介します。
論文 参考訳(メタデータ) (2023-04-10T03:55:35Z) - AutoBERT-Zero: Evolving BERT Backbone from Scratch [94.89102524181986]
そこで本稿では,提案するハイブリッドバックボーンアーキテクチャを自動検索するOP-NASアルゴリズムを提案する。
提案するOP-NASの効率を向上させるために,探索アルゴリズムと候補モデルの評価を最適化する。
実験の結果、検索されたアーキテクチャ(AutoBERT-Zero)は、様々な下流タスクにおいてBERTとそのバリエーションの異なるモデル容量を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-07-15T16:46:01Z) - Reinforcement Learning for Flexibility Design Problems [77.37213643948108]
フレキシビリティ設計問題に対する強化学習フレームワークを開発した。
実験の結果、RL法は古典的手法よりも優れた解を常に見出すことがわかった。
論文 参考訳(メタデータ) (2021-01-02T02:44:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。