論文の概要: QUBE: Enhancing Automatic Heuristic Design via Quality-Uncertainty Balanced Evolution
- arxiv url: http://arxiv.org/abs/2412.20694v4
- Date: Fri, 21 Feb 2025 03:28:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-24 13:04:29.505116
- Title: QUBE: Enhancing Automatic Heuristic Design via Quality-Uncertainty Balanced Evolution
- Title(参考訳): QUBE:品質不確実性バランス進化による自動ヒューリスティック設計の強化
- Authors: Zijie Chen, Zhanchao Zhou, Yu Lu, Renjun Xu, Lili Pan, Zhenzhong Lan,
- Abstract要約: Quality-Uncertainty Balanced Evolution (QUBE)は、FunSearchフレームワーク内で優先度基準を再定義することによって、LLM+EAメソッドを強化する新しいアプローチである。
QUBEは、提案した不確実性-包括的品質基準に基づいて、品質-不確実性トレードオフ基準(QUTC)を採用している。
NP完全問題に対する広範な実験を通じて、QUBEはFunSearchやベースラインメソッドよりも大きなパフォーマンス改善を示す。
- 参考スコア(独自算出の注目度): 14.131178103518907
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Solving NP-hard problems traditionally relies on heuristics, yet manually designing effective heuristics for complex problems remains a significant challenge. While recent advancements like FunSearch have shown that large language models (LLMs) can be integrated into evolutionary algorithms (EAs) for heuristic design, their potential is hindered by limitations in balancing exploitation and exploration. We introduce Quality-Uncertainty Balanced Evolution (QUBE), a novel approach that enhances LLM+EA methods by redefining the priority criterion within the FunSearch framework. QUBE employs the Quality-Uncertainty Trade-off Criterion (QUTC), based on our proposed Uncertainty-Inclusive Quality metric, to evaluate and guide the evolutionary process. Through extensive experiments on challenging NP-complete problems, QUBE demonstrates significant performance improvements over FunSearch and baseline methods. Our code are available at https://github.com/zzjchen/QUBE_code.
- Abstract(参考訳): NPハード問題の解法は伝統的にヒューリスティックに頼っているが、複雑な問題に対して効果的なヒューリスティックを手作業で設計することは大きな課題である。
FunSearchのような最近の進歩は、大規模言語モデル(LLM)がヒューリスティックデザインのために進化的アルゴリズム(EA)に統合できることを示してきたが、それらのポテンシャルは、エクスプロイトと探索のバランスの限界によって妨げられている。
本稿では,FunSearch フレームワーク内で優先度基準を再定義することによって LLM+EA メソッドを強化する新しいアプローチである Quality-Uncertainity Balanced Evolution (QUBE) を紹介する。
QUBEは、我々の提案した不確実性-包括的品質基準に基づく品質-不確実性トレードオフ基準(QUTC)を用いて、進化過程を評価し、導く。
NP完全問題に対する広範な実験を通じて、QUBEはFunSearchやベースラインメソッドよりも大きなパフォーマンス改善を示す。
私たちのコードはhttps://github.com/zzjchen/QUBE_code.comから入手可能です。
関連論文リスト
- Vector Quantized-Elites: Unsupervised and Problem-Agnostic Quality-Diversity Optimization [0.0]
VQ-Elites(Vector Quantized-Elites)は、構造化された挙動空間グリッドを自律的に構築する、新しい品質多様性アルゴリズムである。
VQ-Elitesの中核はベクトル量子変分オートエンコーダの統合であり、行動記述子の動的学習を可能にする。
VQ-Elites on robotic arm pose-reaching and mobile robot space-covering task。
論文 参考訳(メタデータ) (2025-04-10T18:23:19Z) - Thinking Longer, Not Larger: Enhancing Software Engineering Agents via Scaling Test-Time Compute [61.00662702026523]
より大規模なモデルではなく、推論時間の増加を活用する統合されたテスト時間計算スケーリングフレームワークを提案する。
当社のフレームワークには,内部TTCと外部TTCの2つの補完戦略が組み込まれている。
当社の textbf32B モデルは,DeepSeek R1 671B や OpenAI o1 など,はるかに大きなモデルを上回る 46% の課題解決率を実現している。
論文 参考訳(メタデータ) (2025-03-31T07:31:32Z) - Offline Model-Based Optimization: Comprehensive Review [61.91350077539443]
オフライン最適化は、オフラインデータセットのみを使用してブラックボックス機能の最適化を目標とする、科学とエンジニアリングの基本的な課題である。
モデルベース最適化の最近の進歩は、オフライン固有の代理モデルと生成モデルを開発するために、ディープニューラルネットワークの一般化能力を活用している。
科学的な発見を加速させる効果が増大しているにもかかわらず、この分野は包括的なレビューを欠いている。
論文 参考訳(メタデータ) (2025-03-21T16:35:02Z) - Leveraging Large Language Models to Develop Heuristics for Emerging Optimization Problems [0.0]
組合せ最適化問題は、しばしば効率的な解を生成するアルゴリズムに依存する。
人工知能の最近の進歩は、進化の枠組みを通じて生成を自動化する可能性を実証している。
本研究では,問題固有の記述を組み込んだコンテキスト進化型ヒューリスティックスフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-05T10:22:49Z) - HSEvo: Elevating Automatic Heuristic Design with Diversity-Driven Harmony Search and Genetic Algorithm Using LLMs [7.04316974339151]
ヒューリスティック・デザインは、複雑な探索とNP-ハード最適化の問題を解くのに有用であることから、活発な研究分野である。
適応型LLM-EPSフレームワークであるHSEvoを導入する。
論文 参考訳(メタデータ) (2024-12-19T16:07:00Z) - Lingma SWE-GPT: An Open Development-Process-Centric Language Model for Automated Software Improvement [62.94719119451089]
Lingma SWE-GPTシリーズは、現実世界のコード提出活動から学び、シミュレーションする。
Lingma SWE-GPT 72BはGitHubの30.20%の問題を解決する。
論文 参考訳(メタデータ) (2024-11-01T14:27:16Z) - Multi-objective Evolution of Heuristic Using Large Language Model [29.337470185034555]
ヒューリスティックスは、様々な探索と最適化の問題に取り組むために一般的に用いられる。
最近の研究は、その強力な言語と符号化能力を活用して、大規模言語モデル(LLM)を自動検索に取り入れている。
本稿では,多目的最適化問題として探索をモデル化し,最適性能以外の実践的基準を導入することを提案する。
論文 参考訳(メタデータ) (2024-09-25T12:32:41Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - When large language models meet evolutionary algorithms [48.213640761641926]
事前訓練された大規模言語モデル(LLM)は、創造的な自然言語を生成する強力な能力を持つ。
進化的アルゴリズム(EA)は、複雑な現実世界の問題に対する多様な解決策を発見できる。
テキスト生成と進化の共通する集合性と方向性に動機づけられた本論文では,LLMとEAの並列性について述べる。
論文 参考訳(メタデータ) (2024-01-19T05:58:30Z) - Evolution of Heuristics: Towards Efficient Automatic Algorithm Design Using Large Language Model [22.64392837434924]
EoHは自然言語における思考の考えを表しており、これは「思考」と呼ばれている。
それらはLarge Language Models (LLM) によって実行可能なコードに変換される。
EoHは、オンラインのビンパッキング問題に対して、広く使われている人手作りのベースラインアルゴリズムを著しく上回っている。
論文 参考訳(メタデータ) (2024-01-04T04:11:59Z) - Large Language Models as Evolutionary Optimizers [37.92671242584431]
本稿では,大言語モデル(LLM)を進化論として初めて研究する。
主な利点は、最小限のドメイン知識と人間の努力が必要であり、モデルに追加のトレーニングは必要ありません。
また,進化探索における自己適応機構の有効性についても検討した。
論文 参考訳(メタデータ) (2023-10-29T15:44:52Z) - SEGO: Sequential Subgoal Optimization for Mathematical Problem-Solving [64.38649623473626]
大規模言語モデル(LLM)は人工知能の大幅な進歩を導いた。
数学的問題を解く能力を高めるために,textbfSEquential subtextbfGoal textbfOptimization (SEGO) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-19T17:56:40Z) - Multiobjective Evolutionary Component Effect on Algorithm behavior [0.04588028371034406]
パフォーマンス改善につながる最も影響力のあるコンポーネントは何かは不明だ。
この手法を,反復レース (irace) 構成パッケージによって設計された分解(MOEA/D)に基づくチューニング多目的進化アルゴリズムに適用する。
本稿では,検索トラジェクトリ・ネットワーク(STN),人口の多様性,時空の超体積値について,アルゴリズム成分の影響を比較した。
論文 参考訳(メタデータ) (2023-07-31T16:02:56Z) - OpenAGI: When LLM Meets Domain Experts [51.86179657467822]
ヒューマン・インテリジェンス(HI)は、複雑なタスクを解くための基本的なスキルの組み合わせに長けている。
この機能は人工知能(AI)にとって不可欠であり、包括的なAIエージェントに組み込まれるべきである。
マルチステップで現実的なタスクを解決するために設計されたオープンソースのプラットフォームであるOpenAGIを紹介します。
論文 参考訳(メタデータ) (2023-04-10T03:55:35Z) - Simulation-guided Beam Search for Neural Combinatorial Optimization [13.072343634530883]
ニューラル最適化問題に対するシミュレーション誘導ビームサーチ(SGBS)を提案する。
我々は、SGBSと効率的なアクティブサーチ(EAS)を併用し、SGBSはEASでバックプロパゲーションされたソリューションの品質を高める。
提案手法をよく知られたCOベンチマークで評価し,SGBSが合理的な仮定で得られた解の質を著しく向上することを示す。
論文 参考訳(メタデータ) (2022-07-13T13:34:35Z) - AutoBERT-Zero: Evolving BERT Backbone from Scratch [94.89102524181986]
そこで本稿では,提案するハイブリッドバックボーンアーキテクチャを自動検索するOP-NASアルゴリズムを提案する。
提案するOP-NASの効率を向上させるために,探索アルゴリズムと候補モデルの評価を最適化する。
実験の結果、検索されたアーキテクチャ(AutoBERT-Zero)は、様々な下流タスクにおいてBERTとそのバリエーションの異なるモデル容量を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-07-15T16:46:01Z) - AutoSpace: Neural Architecture Search with Less Human Interference [84.42680793945007]
現在のニューラルネットワークアーキテクチャ検索(NAS)アルゴリズムは、ネットワーク構築のための検索空間を設計するための専門知識と努力を必要とします。
探索空間を最適なものに進化させる新しい微分可能な進化フレームワークであるAutoSpaceを提案する。
学習した検索空間では、最近のNASアルゴリズムの性能は、以前手作業で設計した空間に比べて大幅に改善できる。
論文 参考訳(メタデータ) (2021-03-22T13:28:56Z) - Offline Model-Based Optimization via Normalized Maximum Likelihood
Estimation [101.22379613810881]
データ駆動最適化の問題を検討し、一定の点セットでクエリのみを与えられた関数を最大化する必要がある。
この問題は、関数評価が複雑で高価なプロセスである多くの領域に現れる。
我々は,提案手法を高容量ニューラルネットワークモデルに拡張可能なトラクタブル近似を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:04:27Z) - Reinforcement Learning for Flexibility Design Problems [77.37213643948108]
フレキシビリティ設計問題に対する強化学習フレームワークを開発した。
実験の結果、RL法は古典的手法よりも優れた解を常に見出すことがわかった。
論文 参考訳(メタデータ) (2021-01-02T02:44:39Z) - AdaLead: A simple and robust adaptive greedy search algorithm for
sequence design [55.41644538483948]
我々は、容易で、拡張性があり、堅牢な進化的欲求アルゴリズム(AdaLead)を開発した。
AdaLeadは、様々な生物学的に動機づけられたシーケンスデザインの課題において、アートアプローチのより複雑な状態を克服する、驚くほど強力なベンチマークである。
論文 参考訳(メタデータ) (2020-10-05T16:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。