論文の概要: An Example of Evolutionary Computation + Large Language Model Beating
Human: Design of Efficient Guided Local Search
- arxiv url: http://arxiv.org/abs/2401.02051v1
- Date: Thu, 4 Jan 2024 04:11:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-05 15:54:45.904161
- Title: An Example of Evolutionary Computation + Large Language Model Beating
Human: Design of Efficient Guided Local Search
- Title(参考訳): 進化的計算+大言語モデルが人間に勝る一例:効率的なガイド付き局所探索の設計
- Authors: Fei Liu, Xialiang Tong, Mingxuan Yuan, Xi Lin, Fu Luo, Zhenkun Wang,
Zhichao Lu, Qingfu Zhang
- Abstract要約: 本稿では,アルゴリズム設計のための大規模言語モデル(Large Language Model, AEL)フレームワークを用いた新しいアルゴリズム進化法を提案する。
AELは、大規模言語モデルのパワーと進化計算のパラダイムを組み合わせて、アルゴリズムを設計、組み合わせ、修正する。
AELが設計したローカルサーチ(GLS)は、最先端の人間設計のGLSを同じイテレーション予算で上回っていることを示す。
- 参考スコア(独自算出の注目度): 23.61920703757594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is often very tedious for human experts to design efficient algorithms.
Recently, we have proposed a novel Algorithm Evolution using Large Language
Model (AEL) framework for automatic algorithm design. AEL combines the power of
a large language model and the paradigm of evolutionary computation to design,
combine, and modify algorithms automatically. In this paper, we use AEL to
design the guide algorithm for guided local search (GLS) to solve the
well-known traveling salesman problem (TSP). AEL automatically evolves elite
GLS algorithms in two days, with minimal human effort and no model training.
Experimental results on 1,000 TSP20-TSP100 instances and TSPLib instances show
that AEL-designed GLS outperforms state-of-the-art human-designed GLS with the
same iteration budget. It achieves a 0% gap on TSP20 and TSP50 and a 0.032% gap
on TSP100 in 1,000 iterations. Our findings mark the emergence of a new era in
automatic algorithm design.
- Abstract(参考訳): 人間の専門家が効率的なアルゴリズムを設計するのは、しばしば面倒である。
近年,自動アルゴリズム設計のための大規模言語モデル(ael)フレームワークを用いた新しいアルゴリズム進化を提案する。
aelは大規模な言語モデルのパワーと進化的計算のパラダイムを組み合わせ、自動的にアルゴリズムを設計、組み合わせ、修正する。
本稿では、AELを用いて、ガイド付きローカルサーチ(GLS)のガイドアルゴリズムを設計し、よく知られた旅行セールスマン問題(TSP)を解決する。
AELは、人間の最小限の努力とモデルトレーニングなしで、エリートGLSアルゴリズムを2日で自動的に進化させる。
1000のTSP20-TSP100インスタンスとTSPLibインスタンスの実験結果から、ALEが設計したGLSは、同じイテレーション予算で最先端の人間設計のGLSより優れていた。
TSP20とTSP50の差は0%、TSP100の差は0.032%である。
以上より,自動アルゴリズム設計における新たな時代の出現を示唆する。
関連論文リスト
- PhaseEvo: Towards Unified In-Context Prompt Optimization for Large
Language Models [9.362082187605356]
本稿では、LLMの生成能力と進化アルゴリズムのグローバル検索能力を組み合わせた効率的な自動プロンプト最適化フレームワークであるPhaseEvoについて述べる。
PhaseEvoは、優れた効率を維持しながら、最先端のベースライン手法を大きなマージンで大幅に上回っている。
論文 参考訳(メタデータ) (2024-02-17T17:47:10Z) - Guided Evolution with Binary Discriminators for ML Program Search [64.44893463120584]
プログラムのペアがどのプログラムの方が優れているかを識別するために、オンラインで訓練された二項判別器による指導進化を提案する。
本稿では,MLの記号探索における3.7倍の高速化,RL損失関数の4倍の高速化など,様々な問題に対する進化の高速化を実証する。
論文 参考訳(メタデータ) (2024-02-08T16:59:24Z) - ReEvo: Large Language Models as Hyper-Heuristics with Reflective
Evolution [30.08162649222857]
本稿では,LHH(Language Hyper-Heuristics)を提案する。
リフレクティブ・エボ(Relective Evolution, ReEvo)は、人間の専門家のリフレクティブ・デザイン・アプローチを模倣した汎用的な検索フレームワークである。
論文 参考訳(メタデータ) (2024-02-02T05:04:51Z) - LLM4EDA: Emerging Progress in Large Language Models for Electronic
Design Automation [74.7163199054881]
大規模言語モデル(LLM)は、文脈理解、論理推論、回答生成においてその能力を実証している。
本稿では,EDA分野におけるLLMの応用に関する系統的研究を行う。
論理合成,物理設計,マルチモーダル特徴抽出,回路のアライメントにLLMを適用することに焦点を当て,今後の研究の方向性を強調した。
論文 参考訳(メタデータ) (2023-12-28T15:09:14Z) - Octopus: Embodied Vision-Language Programmer from Environmental Feedback [59.772904419928054]
大規模視覚言語モデル (VLM) はマルチモーダル認識と推論において大きな進歩を遂げた。
本稿では,エージェントの視覚とテキストタスクの目的を正確に解読する新しいVLMであるOctopusを紹介する。
我々の設計では、シミュレーターの日常的な雑用から複雑なビデオゲームの高度なインタラクションまで、エージェントは幅広いタスクを十分に扱えるようにしている。
論文 参考訳(メタデータ) (2023-10-12T17:59:58Z) - Connecting Large Language Models with Evolutionary Algorithms Yields
Powerful Prompt Optimizers [70.18534453485849]
EvoPromptは離散的なプロンプト最適化のためのフレームワークである。
進化的アルゴリズム(EA)の概念は、優れた性能と高速収束を示すものである。
人為的なプロンプトと既存の方法で自動プロンプト生成を著しく上回っている。
論文 参考訳(メタデータ) (2023-09-15T16:50:09Z) - When Do Program-of-Thoughts Work for Reasoning? [51.2699797837818]
本稿では,コードと推論能力の相関性を測定するために,複雑性に富んだ推論スコア(CIRS)を提案する。
具体的には、抽象構文木を用いて構造情報をエンコードし、論理的複雑性を計算する。
コードはhttps://github.com/zjunlp/EasyInstructのEasyInstructフレームワークに統合される。
論文 参考訳(メタデータ) (2023-08-29T17:22:39Z) - Tree-of-Mixed-Thought: Combining Fast and Slow Thinking for Multi-hop
Visual Reasoning [16.495754104540605]
大規模言語モデル(LLM)は、視覚的推論のような複雑な推論タスクのためのコードライクな計画を生成することができる。
ワンストップ推論 (fast) とツリー・オブ・シント (slow) を統合した階層型計画探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-18T16:21:40Z) - NeuroLogic A*esque Decoding: Constrained Text Generation with Lookahead
Heuristics [73.96837492216204]
本稿では,将来のコスト見積を組み込んだ復号アルゴリズムであるNeuroLogic A*esqueを提案する。
大規模言語モデルに効率的な効率的なルックアヘッドを開発する。
提案手法は,5世代タスクにおける競合的ベースラインと,テーブル・トゥ・テキスト生成,制約された機械翻訳,キーワード制約付き生成における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-12-16T09:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。