論文の概要: QUBE: Enhancing Automatic Heuristic Design via Quality-Uncertainty Balanced Evolution
- arxiv url: http://arxiv.org/abs/2412.20694v3
- Date: Wed, 19 Feb 2025 02:52:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 13:29:36.032542
- Title: QUBE: Enhancing Automatic Heuristic Design via Quality-Uncertainty Balanced Evolution
- Title(参考訳): QUBE:品質不確実性バランス進化による自動ヒューリスティック設計の強化
- Authors: Zijie Chen, Zhanchao Zhou, Yu Lu, Renjun Xu, Lili Pan, Zhenzhong Lan,
- Abstract要約: Quality-Uncertainty Balanced Evolution (QUBE)は、FunSearchフレームワーク内で優先度基準を再定義することによって、LLM+EAメソッドを強化する新しいアプローチである。
QUBEは、提案した不確実性-包括的品質基準に基づいて、品質-不確実性トレードオフ基準(QUTC)を採用している。
NP完全問題に対する広範な実験を通じて、QUBEはFunSearchやベースラインメソッドよりも大きなパフォーマンス改善を示す。
- 参考スコア(独自算出の注目度): 14.131178103518907
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Solving NP-hard problems traditionally relies on heuristics, yet manually designing effective heuristics for complex problems remains a significant challenge. While recent advancements like FunSearch have shown that large language models (LLMs) can be integrated into evolutionary algorithms (EAs) for heuristic design, their potential is hindered by limitations in balancing exploitation and exploration. We introduce Quality-Uncertainty Balanced Evolution (QUBE), a novel approach that enhances LLM+EA methods by redefining the priority criterion within the FunSearch framework. QUBE employs the Quality-Uncertainty Trade-off Criterion (QUTC), based on our proposed Uncertainty-Inclusive Quality metric, to evaluate and guide the evolutionary process. Through extensive experiments on challenging NP-complete problems, QUBE demonstrates significant performance improvements over FunSearch and baseline methods. Our code are available at https://github.com/zzjchen/QUBE\_code.
- Abstract(参考訳): NPハード問題の解法は伝統的にヒューリスティックに頼っているが、複雑な問題に対して効果的なヒューリスティックを手作業で設計することは大きな課題である。
FunSearchのような最近の進歩は、大規模言語モデル(LLM)がヒューリスティックデザインのために進化的アルゴリズム(EA)に統合できることを示してきたが、それらのポテンシャルは、エクスプロイトと探索のバランスの限界によって妨げられている。
本稿では,FunSearch フレームワーク内で優先度基準を再定義することによって LLM+EA メソッドを強化する新しいアプローチである Quality-Uncertainity Balanced Evolution (QUBE) を紹介する。
QUBEは、我々の提案した不確実性-包括的品質基準に基づく品質-不確実性トレードオフ基準(QUTC)を用いて、進化過程を評価し、導く。
NP完全問題に対する広範な実験を通じて、QUBEはFunSearchやベースラインメソッドよりも大きなパフォーマンス改善を示す。
私たちのコードはhttps://github.com/zzjchen/QUBE\_code.comから入手可能です。
関連論文リスト
- Machine Learning Pipeline for Software Engineering: A Systematic Literature Review [0.0]
この系統的な文献レビューは、ソフトウェア工学(SE)用に設計された最先端の機械学習パイプラインを検証している。
この結果から,データバランシングのためのSMOTEなどの堅牢な前処理がモデルの信頼性を向上させることが示唆された。
ランダムフォレストやグラディエントブースティングのようなアンサンブルメソッドはタスク間でパフォーマンスを支配します。
Best Arithmetic Mean (BAM)のような新しいメトリクスはニッチなアプリケーションに現れている。
論文 参考訳(メタデータ) (2025-07-31T15:37:30Z) - Taming Polysemanticity in LLMs: Provable Feature Recovery via Sparse Autoencoders [50.52694757593443]
既存のSAEトレーニングアルゴリズムは厳密な数学的保証を欠いていることが多く、実用的な制限に悩まされている。
まず,特徴の特定可能性という新たな概念を含む特徴回復問題の統計的枠組みを提案する。
本稿では、ニューラルネットワークのバイアスパラメータを適応的に調整し、適切なアクティベーション間隔を確保する手法である「バイアス適応」に基づく新たなSAEトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-06-16T20:58:05Z) - SwS: Self-aware Weakness-driven Problem Synthesis in Reinforcement Learning for LLM Reasoning [95.28059121743831]
RLVR(Reinforcement Learning with Verifiable Rewards)は、複雑な推論タスクにおいて、大規模言語モデル(LLM)のトレーニングに有効であることが証明されている。
本稿では、モデル欠陥を体系的に識別し、それらを問題解決に活用する自己認識弱さ駆動型問題合成フレームワーク(SwS)を提案する。
SwSはモデルを自己識別し、RLの弱点に対処することで堅牢な一般化を可能にし、7Bモデルと32Bモデルで平均パフォーマンスが10.0%と7.7%向上した。
論文 参考訳(メタデータ) (2025-06-10T17:02:00Z) - Tournament of Prompts: Evolving LLM Instructions Through Structured Debates and Elo Ratings [0.9437165725355702]
我々は,エロの選考による議論駆動評価を通じて,進化を促す新しいフレームワークであるDEEVOを紹介する。
Eloの格付けをフィットネスプロキシとして利用することで、DEEVOは同時に改善を推進し、迅速な人口の貴重な多様性を保ちます。
論文 参考訳(メタデータ) (2025-05-30T19:33:41Z) - EvolveSearch: An Iterative Self-Evolving Search Agent [98.18686493123785]
大規模言語モデル(LLM)は、検索エンジンやWebブラウザなどのツールを統合することで、エージェント情報検索機能を変革した。
本研究では,SFTとRLを組み合わせた新たな反復的自己進化フレームワークであるEvolveSearchを提案する。
論文 参考訳(メタデータ) (2025-05-28T15:50:48Z) - Vector Quantized-Elites: Unsupervised and Problem-Agnostic Quality-Diversity Optimization [0.0]
VQ-Elites(Vector Quantized-Elites)は、構造化された挙動空間グリッドを自律的に構築する、新しい品質多様性アルゴリズムである。
VQ-Elitesの中核はベクトル量子変分オートエンコーダの統合であり、行動記述子の動的学習を可能にする。
VQ-Elites on robotic arm pose-reaching and mobile robot space-covering task。
論文 参考訳(メタデータ) (2025-04-10T18:23:19Z) - Thinking Longer, Not Larger: Enhancing Software Engineering Agents via Scaling Test-Time Compute [61.00662702026523]
より大規模なモデルではなく、推論時間の増加を活用する統合されたテスト時間計算スケーリングフレームワークを提案する。
当社のフレームワークには,内部TTCと外部TTCの2つの補完戦略が組み込まれている。
当社の textbf32B モデルは,DeepSeek R1 671B や OpenAI o1 など,はるかに大きなモデルを上回る 46% の課題解決率を実現している。
論文 参考訳(メタデータ) (2025-03-31T07:31:32Z) - Offline Model-Based Optimization: Comprehensive Review [61.91350077539443]
オフライン最適化は、オフラインデータセットのみを使用してブラックボックス機能の最適化を目標とする、科学とエンジニアリングの基本的な課題である。
モデルベース最適化の最近の進歩は、オフライン固有の代理モデルと生成モデルを開発するために、ディープニューラルネットワークの一般化能力を活用している。
科学的な発見を加速させる効果が増大しているにもかかわらず、この分野は包括的なレビューを欠いている。
論文 参考訳(メタデータ) (2025-03-21T16:35:02Z) - Leveraging Large Language Models to Develop Heuristics for Emerging Optimization Problems [0.0]
組合せ最適化問題は、しばしば効率的な解を生成するアルゴリズムに依存する。
人工知能の最近の進歩は、進化の枠組みを通じて生成を自動化する可能性を実証している。
本研究では,問題固有の記述を組み込んだコンテキスト進化型ヒューリスティックスフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-05T10:22:49Z) - HSEvo: Elevating Automatic Heuristic Design with Diversity-Driven Harmony Search and Genetic Algorithm Using LLMs [7.04316974339151]
ヒューリスティック・デザインは、複雑な探索とNP-ハード最適化の問題を解くのに有用であることから、活発な研究分野である。
適応型LLM-EPSフレームワークであるHSEvoを導入する。
論文 参考訳(メタデータ) (2024-12-19T16:07:00Z) - Lingma SWE-GPT: An Open Development-Process-Centric Language Model for Automated Software Improvement [62.94719119451089]
Lingma SWE-GPTシリーズは、現実世界のコード提出活動から学び、シミュレーションする。
Lingma SWE-GPT 72BはGitHubの30.20%の問題を解決する。
論文 参考訳(メタデータ) (2024-11-01T14:27:16Z) - Multi-objective Evolution of Heuristic Using Large Language Model [29.337470185034555]
ヒューリスティックスは、様々な探索と最適化の問題に取り組むために一般的に用いられる。
最近の研究は、その強力な言語と符号化能力を活用して、大規模言語モデル(LLM)を自動検索に取り入れている。
本稿では,多目的最適化問題として探索をモデル化し,最適性能以外の実践的基準を導入することを提案する。
論文 参考訳(メタデータ) (2024-09-25T12:32:41Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - When large language models meet evolutionary algorithms [48.213640761641926]
事前訓練された大規模言語モデル(LLM)は、創造的な自然言語を生成する強力な能力を持つ。
進化的アルゴリズム(EA)は、複雑な現実世界の問題に対する多様な解決策を発見できる。
テキスト生成と進化の共通する集合性と方向性に動機づけられた本論文では,LLMとEAの並列性について述べる。
論文 参考訳(メタデータ) (2024-01-19T05:58:30Z) - Evolution of Heuristics: Towards Efficient Automatic Algorithm Design Using Large Language Model [22.64392837434924]
EoHは自然言語における思考の考えを表しており、これは「思考」と呼ばれている。
それらはLarge Language Models (LLM) によって実行可能なコードに変換される。
EoHは、オンラインのビンパッキング問題に対して、広く使われている人手作りのベースラインアルゴリズムを著しく上回っている。
論文 参考訳(メタデータ) (2024-01-04T04:11:59Z) - Large Language Models as Evolutionary Optimizers [37.92671242584431]
本稿では,大言語モデル(LLM)を進化論として初めて研究する。
主な利点は、最小限のドメイン知識と人間の努力が必要であり、モデルに追加のトレーニングは必要ありません。
また,進化探索における自己適応機構の有効性についても検討した。
論文 参考訳(メタデータ) (2023-10-29T15:44:52Z) - SEGO: Sequential Subgoal Optimization for Mathematical Problem-Solving [64.38649623473626]
大規模言語モデル(LLM)は人工知能の大幅な進歩を導いた。
数学的問題を解く能力を高めるために,textbfSEquential subtextbfGoal textbfOptimization (SEGO) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-19T17:56:40Z) - Multiobjective Evolutionary Component Effect on Algorithm behavior [0.04588028371034406]
パフォーマンス改善につながる最も影響力のあるコンポーネントは何かは不明だ。
この手法を,反復レース (irace) 構成パッケージによって設計された分解(MOEA/D)に基づくチューニング多目的進化アルゴリズムに適用する。
本稿では,検索トラジェクトリ・ネットワーク(STN),人口の多様性,時空の超体積値について,アルゴリズム成分の影響を比較した。
論文 参考訳(メタデータ) (2023-07-31T16:02:56Z) - OpenAGI: When LLM Meets Domain Experts [51.86179657467822]
ヒューマン・インテリジェンス(HI)は、複雑なタスクを解くための基本的なスキルの組み合わせに長けている。
この機能は人工知能(AI)にとって不可欠であり、包括的なAIエージェントに組み込まれるべきである。
マルチステップで現実的なタスクを解決するために設計されたオープンソースのプラットフォームであるOpenAGIを紹介します。
論文 参考訳(メタデータ) (2023-04-10T03:55:35Z) - Simulation-guided Beam Search for Neural Combinatorial Optimization [13.072343634530883]
ニューラル最適化問題に対するシミュレーション誘導ビームサーチ(SGBS)を提案する。
我々は、SGBSと効率的なアクティブサーチ(EAS)を併用し、SGBSはEASでバックプロパゲーションされたソリューションの品質を高める。
提案手法をよく知られたCOベンチマークで評価し,SGBSが合理的な仮定で得られた解の質を著しく向上することを示す。
論文 参考訳(メタデータ) (2022-07-13T13:34:35Z) - AutoBERT-Zero: Evolving BERT Backbone from Scratch [94.89102524181986]
そこで本稿では,提案するハイブリッドバックボーンアーキテクチャを自動検索するOP-NASアルゴリズムを提案する。
提案するOP-NASの効率を向上させるために,探索アルゴリズムと候補モデルの評価を最適化する。
実験の結果、検索されたアーキテクチャ(AutoBERT-Zero)は、様々な下流タスクにおいてBERTとそのバリエーションの異なるモデル容量を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-07-15T16:46:01Z) - AutoSpace: Neural Architecture Search with Less Human Interference [84.42680793945007]
現在のニューラルネットワークアーキテクチャ検索(NAS)アルゴリズムは、ネットワーク構築のための検索空間を設計するための専門知識と努力を必要とします。
探索空間を最適なものに進化させる新しい微分可能な進化フレームワークであるAutoSpaceを提案する。
学習した検索空間では、最近のNASアルゴリズムの性能は、以前手作業で設計した空間に比べて大幅に改善できる。
論文 参考訳(メタデータ) (2021-03-22T13:28:56Z) - Offline Model-Based Optimization via Normalized Maximum Likelihood
Estimation [101.22379613810881]
データ駆動最適化の問題を検討し、一定の点セットでクエリのみを与えられた関数を最大化する必要がある。
この問題は、関数評価が複雑で高価なプロセスである多くの領域に現れる。
我々は,提案手法を高容量ニューラルネットワークモデルに拡張可能なトラクタブル近似を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:04:27Z) - Reinforcement Learning for Flexibility Design Problems [77.37213643948108]
フレキシビリティ設計問題に対する強化学習フレームワークを開発した。
実験の結果、RL法は古典的手法よりも優れた解を常に見出すことがわかった。
論文 参考訳(メタデータ) (2021-01-02T02:44:39Z) - AdaLead: A simple and robust adaptive greedy search algorithm for
sequence design [55.41644538483948]
我々は、容易で、拡張性があり、堅牢な進化的欲求アルゴリズム(AdaLead)を開発した。
AdaLeadは、様々な生物学的に動機づけられたシーケンスデザインの課題において、アートアプローチのより複雑な状態を克服する、驚くほど強力なベンチマークである。
論文 参考訳(メタデータ) (2020-10-05T16:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。