論文の概要: Large Language Model-Based Evolutionary Optimizer: Reasoning with
elitism
- arxiv url: http://arxiv.org/abs/2403.02054v1
- Date: Mon, 4 Mar 2024 13:57:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 18:37:55.883972
- Title: Large Language Model-Based Evolutionary Optimizer: Reasoning with
elitism
- Title(参考訳): 大規模言語モデルに基づく進化的オプティマイザ:elithmによる推論
- Authors: Shuvayan Brahmachary, Subodh M. Joshi, Aniruddha Panda, Kaushik
Koneripalli, Arun Kumar Sagotra, Harshil Patel, Ankush Sharma, Ameya D.
Jagtap, Kaushic Kalyanaraman
- Abstract要約: 大規模言語モデル(LLM)は、顕著な推論能力を示している。
本稿では,LLMが様々なシナリオにまたがるゼロショット最適化能力を有していることを主張する。
LLMを用いた数値最適化手法を提案する。
- 参考スコア(独自算出の注目度): 1.1463861912335864
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated remarkable reasoning
abilities, prompting interest in their application as black-box optimizers.
This paper asserts that LLMs possess the capability for zero-shot optimization
across diverse scenarios, including multi-objective and high-dimensional
problems. We introduce a novel population-based method for numerical
optimization using LLMs called Language-Model-Based Evolutionary Optimizer
(LEO). Our hypothesis is supported through numerical examples, spanning
benchmark and industrial engineering problems such as supersonic nozzle shape
optimization, heat transfer, and windfarm layout optimization. We compare our
method to several gradient-based and gradient-free optimization approaches.
While LLMs yield comparable results to state-of-the-art methods, their
imaginative nature and propensity to hallucinate demand careful handling. We
provide practical guidelines for obtaining reliable answers from LLMs and
discuss method limitations and potential research directions.
- Abstract(参考訳): 大規模言語モデル(llm)は驚くべき推論能力を示し、ブラックボックスオプティマイザとしてアプリケーションへの関心を高めた。
本稿では,多目的および高次元問題を含む多様なシナリオにおいて,llmがゼロショット最適化の能力を有することを述べる。
本稿では,言語モデルに基づく進化最適化 (LEO) と呼ばれるLLMを用いた数値最適化手法を提案する。
本仮説は,超音速ノズル形状最適化,熱伝達,風洞配置最適化などの産業工学的問題とベンチマークの数値例を通じて支持される。
本手法を勾配ベースおよび勾配のない最適化手法と比較する。
LLMは最先端の手法に匹敵する結果をもたらすが、その想像的性質と幻覚的要求対応の妥当性は高い。
我々は,LCMから信頼性の高い回答を得るための実践的ガイドラインを提案し,手法の限界と潜在的研究の方向性について議論する。
関連論文リスト
- Can Large Language Models Be Trusted as Black-Box Evolutionary Optimizers for Combinatorial Problems? [8.082897040940447]
LLM(Large Language Models)は、幅広い知識でゲームを変えるソリューションを提供し、最適化のパラダイムを民主化することができる。
したがって、LLMの適合性を進化機構(EVO)として評価することが不可欠である。
論文 参考訳(メタデータ) (2025-01-25T05:19:19Z) - Align-Pro: A Principled Approach to Prompt Optimization for LLM Alignment [40.71270945505082]
大規模言語モデル(LLM)は、様々な社会的および意思決定プロセスに統合されつつある。
人間のフィードバックからの強化学習(RLHF)のような従来の手法は、微調整モデルパラメータによるアライメントを実現する。
対照的に、迅速な最適化はLLMアライメントのためのRLHFの代替となる。
論文 参考訳(メタデータ) (2025-01-07T03:14:39Z) - GReaTer: Gradients over Reasoning Makes Smaller Language Models Strong Prompt Optimizers [52.17222304851524]
本稿では,タスク固有の推論よりも勾配情報を直接組み込む新しいプロンプト最適化手法であるGReaTerを紹介する。
GReaTerはタスク損失勾配を利用して、オープンソースの軽量言語モデルのためのプロンプトの自己最適化を可能にする。
GReaTerは、従来の最先端のプロンプト最適化手法を一貫して上回っている。
論文 参考訳(メタデータ) (2024-12-12T20:59:43Z) - Using Large Language Models for Parametric Shape Optimization [2.464331481632096]
パラメータ化工学設計の最適形状を決定するための最適化フレームワーク LLM-PSO を開発した。
我々の予備調査は、LLMの形状最適化と工学設計をより広範囲に活用するためのさらなる研究を刺激する可能性がある。
論文 参考訳(メタデータ) (2024-12-11T03:35:38Z) - MAPO: Boosting Large Language Model Performance with Model-Adaptive Prompt Optimization [73.7779735046424]
異なるプロンプトを異なるLarge Language Models (LLM) に適応させることで,NLP の様々な下流タスクにまたがる機能の向上が期待できる。
次に、下流タスクにおける各LLMに対して、元のプロンプトを最適化するモデル適応プロンプト(MAPO)手法を提案する。
論文 参考訳(メタデータ) (2024-07-04T18:39:59Z) - LLM as a Complementary Optimizer to Gradient Descent: A Case Study in Prompt Tuning [69.95292905263393]
グラデーションベースとハイレベルなLLMは、協調最適化フレームワークを効果的に組み合わせることができることを示す。
本稿では,これらを相互に補完し,組み合わせた最適化フレームワークを効果的に連携させることができることを示す。
論文 参考訳(メタデータ) (2024-05-30T06:24:14Z) - The Importance of Directional Feedback for LLM-based Optimizers [23.669705029245645]
本研究では,自然言語と数値フィードバックを用いてテキスト空間の問題を解決する対話型言語モデル (LLM) の可能性について検討する。
我々は,過去の最適化トレースから指向性フィードバックを合成し,繰り返しよりも信頼性の高い改善を実現するLLMベースの新しい設計を行う。
論文 参考訳(メタデータ) (2024-05-26T05:22:35Z) - Multi-Reference Preference Optimization for Large Language Models [56.84730239046117]
複数の参照モデルを用いた直接選好最適化のための新しいクローズドフォームの定式化を提案する。
得られたアルゴリズムであるMulti-Reference Preference Optimization (MRPO)は、様々な参照モデルからより広範な事前知識を活用する。
MRPOを微調整したLLMは,データ不足や多量性に関わらず,様々な嗜好データにおいてより一般化されていることを示す。
論文 参考訳(メタデータ) (2024-05-26T00:29:04Z) - Exploring the True Potential: Evaluating the Black-box Optimization Capability of Large Language Models [32.859634302766146]
大規模言語モデル (LLM) は自然言語処理タスクにおいて例外的な性能を示した。
本稿では,LLMの最適化の可能性について深い知見を提供する。
本研究は,LLMの最適化における限界と利点を明らかにした。
論文 参考訳(メタデータ) (2024-04-09T13:17:28Z) - Large Language Models as Optimizers [106.52386531624532]
本稿では,大規模言語モデル (LLM) をプロンプトとして活用するためのシンプルで効果的な手法である Prompting (OPRO) を提案する。
各最適化ステップにおいて、LLMは、前述した値を含むプロンプトから新しい解を生成する。
OPROにより最適化された最良のプロンプトは、GSM8Kで最大8%、Big-Bench Hardタスクで最大50%向上することを示した。
論文 参考訳(メタデータ) (2023-09-07T00:07:15Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。