論文の概要: Exploring the Improvement of Evolutionary Computation via Large Language Models
- arxiv url: http://arxiv.org/abs/2405.02876v2
- Date: Thu, 23 May 2024 10:10:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-25 05:11:11.848160
- Title: Exploring the Improvement of Evolutionary Computation via Large Language Models
- Title(参考訳): 大規模言語モデルによる進化的計算の改善を探る
- Authors: Jinyu Cai, Jinglue Xu, Jialong Li, Takuto Ymauchi, Hitoshi Iba, Kenji Tei,
- Abstract要約: 進化計算(EC)は様々な領域に適用されている。
問題の複雑さが増大するにつれて、ECの限界はより明確になっている。
大きな言語モデルの膨大な知識と適応能力を活用することで、潜在的な改善の先見的な概要を提供する。
- 参考スコア(独自算出の注目度): 3.4641800438055297
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Evolutionary computation (EC), as a powerful optimization algorithm, has been applied across various domains. However, as the complexity of problems increases, the limitations of EC have become more apparent. The advent of large language models (LLMs) has not only transformed natural language processing but also extended their capabilities to diverse fields. By harnessing LLMs' vast knowledge and adaptive capabilities, we provide a forward-looking overview of potential improvements LLMs can bring to EC, focusing on the algorithms themselves, population design, and additional enhancements. This presents a promising direction for future research at the intersection of LLMs and EC.
- Abstract(参考訳): 進化計算(EC)は、様々な領域にまたがる強力な最適化アルゴリズムである。
しかし、問題の複雑さが増すにつれ、ECの限界はより明確になっている。
大規模言語モデル(LLM)の出現は、自然言語処理を変換しただけでなく、様々な分野にも拡張した。
LLMの膨大な知識と適応能力を活用することで、LCMがECにもたらす可能性のある潜在的な改善の概要を、アルゴリズム自体、人口設計、さらなる拡張に焦点をあてることができます。
このことは、LLMとECの交差点における将来の研究に有望な方向を示す。
関連論文リスト
- Many-Shot In-Context Learning for Molecular Inverse Design [56.65345962071059]
大規模言語モデル(LLM)は、数ショットのインコンテキスト学習(ICL)において、優れたパフォーマンスを示している。
マルチショットICLで利用可能な実験データの不足を克服する,新しい半教師付き学習手法を開発した。
示すように、この新しい手法は、既存の分子設計のためのICL法を大幅に改善し、科学者にとってアクセスしやすく、使いやすくする。
論文 参考訳(メタデータ) (2024-07-26T21:10:50Z) - LLM-POET: Evolving Complex Environments using Large Language Models [0.0]
LLM-POETは,Large Language Model (LLM) を用いて環境の生成と変更を行うPOETアルゴリズムの修正である。
その結果, LLMは多様な環境を生産できるだけでなく, 拡張ポエットで環境生成に使用されるCPPNと比較して, 共進化の性能向上率は34%増加した。
論文 参考訳(メタデータ) (2024-06-07T06:23:07Z) - When Large Language Model Meets Optimization [7.822833805991351]
大規模言語モデル(LLM)は、インテリジェントなモデリングと最適化における戦略的意思決定を容易にする。
本稿では,LLMと最適化アルゴリズムの組み合わせの進展と可能性について概説する。
論文 参考訳(メタデータ) (2024-05-16T13:54:37Z) - Enhancing Decision-Making in Optimization through LLM-Assisted Inference: A Neural Networks Perspective [1.0420394952839245]
本稿では,生成型AI(GenAI)と進化型アルゴリズム(EA)のシームレスな統合について検討する。
大規模言語モデル(LLM)の変換的役割に着目し,LLM支援推論による意思決定プロセスの自動化と向上の可能性について検討した。
論文 参考訳(メタデータ) (2024-05-12T08:22:53Z) - A Survey on Self-Evolution of Large Language Models [116.54238664264928]
大規模言語モデル(LLM)は、様々な分野やインテリジェントエージェントアプリケーションにおいて大きく進歩している。
この問題に対処するために、LLMが自律的に獲得し、洗練し、モデル自身によって生成された経験から学ぶことができる自己進化的アプローチが急速に成長している。
論文 参考訳(メタデータ) (2024-04-22T17:43:23Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - When large language models meet evolutionary algorithms [48.213640761641926]
事前訓練された大規模言語モデル(LLM)は、創造的な自然言語を生成する強力な能力を持つ。
進化的アルゴリズム(EA)は、複雑な現実世界の問題に対する多様な解決策を発見できる。
テキスト生成と進化の共通する集合性と方向性に動機づけられた本論文では,LLMとEAの並列性について述べる。
論文 参考訳(メタデータ) (2024-01-19T05:58:30Z) - Connecting Large Language Models with Evolutionary Algorithms Yields
Powerful Prompt Optimizers [70.18534453485849]
EvoPromptは離散的なプロンプト最適化のためのフレームワークである。
進化的アルゴリズム(EA)の概念は、優れた性能と高速収束を示すものである。
人為的なプロンプトと既存の方法で自動プロンプト生成を著しく上回っている。
論文 参考訳(メタデータ) (2023-09-15T16:50:09Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。