論文の概要: Evolutionary Computation in the Era of Large Language Model: Survey and
Roadmap
- arxiv url: http://arxiv.org/abs/2401.10034v2
- Date: Wed, 7 Feb 2024 07:37:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 19:10:12.547363
- Title: Evolutionary Computation in the Era of Large Language Model: Survey and
Roadmap
- Title(参考訳): 大規模言語モデル時代の進化的計算:調査とロードマップ
- Authors: Xingyu Wu, Sheng-hao Wu, Jibin Wu, Liang Feng, Kay Chen Tan
- Abstract要約: 大規模言語モデル (LLM) と進化的アルゴリズム (EA) の相互作用は、複雑な問題における適用可能性の共通の追求を共有している。
本稿では、相互インスピレーションを2つの主要な道に分類する、徹底的なレビューと前方のロードマップを提供する。
特定された課題と今後の方向性は、この革新的なコラボレーションの可能性を最大限に活用することを目指す研究者や実践者に対してガイダンスを提供する。
- 参考スコア(独自算出の注目度): 28.923533887367533
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have not only revolutionized natural language
processing but also extended their prowess to various domains, marking a
significant stride towards artificial general intelligence. The interplay
between LLMs and Evolutionary Algorithms (EAs), despite differing in objectives
and methodologies, share a common pursuit of applicability in complex problems.
Meanwhile, EA can provide an optimization framework for LLM's further
enhancement under black-box settings, empowering LLM with flexible global
search capacities. On the other hand, the abundant domain knowledge inherent in
LLMs could enable EA to conduct more intelligent searches. Furthermore, the
text processing and generative capabilities of LLMs would aid in deploying EAs
across a wide range of tasks. Based on these complementary advantages, this
paper provides a thorough review and a forward-looking roadmap, categorizing
the reciprocal inspiration into two main avenues: LLM-enhanced EA and
EA-enhanced LLM. Some integrated synergy methods are further introduced to
exemplify the amalgamation of LLMs and EAs in diverse scenarios, including
neural architecture search, code generation, software engineering, and various
generation tasks. As the first comprehensive review focused on the EA research
in the era of LLMs, this paper provides a foundational stepping stone for
understanding the collaborative potential of LLMs and EAs. By meticulous
categorization and critical analysis, we contribute to the ongoing discourse on
the cross-disciplinary study of these two powerful paradigms. The identified
challenges and future directions offer guidance for researchers and
practitioners aiming to unlock the full potential of this innovative
collaboration in propelling advancements in optimization and artificial
intelligence.
- Abstract(参考訳): 大規模言語モデル(LLM)は自然言語処理に革命をもたらしただけでなく、様々な領域にその力を拡大し、人工知能への大きな一歩を踏み出した。
LLMと進化的アルゴリズム(EA)の相互作用は、目的や方法論が異なるにも拘わらず、複雑な問題に適用可能性の共通の追求を共有している。
一方、EAは、ブラックボックス設定下でのLLMのさらなる拡張のための最適化フレームワークを提供し、柔軟性のあるグローバル検索能力を持つLLMに権限を与えることができる。
一方、LLMに固有の豊富なドメイン知識により、EAはよりインテリジェントな検索を行うことができる。
さらに、LLMのテキスト処理と生成能力は、幅広いタスクにまたがってEAをデプロイするのに役立ちます。
本稿では,これらの相補的優位性に基づいて,相互インスピレーションを LLM 強化 EA と EA 強化 LLM の2つの主要経路に分類する,徹底的なレビューと,先進的なロードマップを提供する。
ニューラルネットワーク探索、コード生成、ソフトウェアエンジニアリング、および様々な生成タスクなど、さまざまなシナリオにおけるLLMとEAの融合を実証するために、いくつかの統合されたシナジー手法が導入された。
LLM時代のEA研究に焦点をあてた最初の総合的なレビューとして、本論文はLLMとEAの協調可能性を理解するための基礎的な足場を提供する。
注意深い分類と批判的分析により,我々はこれら2つの強力なパラダイムの学際研究における現在進行中の談話に寄与する。
特定された課題と今後の方向性は、この革新的なコラボレーションの可能性を解き放ち、最適化と人工知能の進歩を促進することを目的とした研究者や実践者へのガイダンスを提供する。
関連論文リスト
- Toward Self-Improvement of LLMs via Imagination, Searching, and Criticizing [56.75702900542643]
大規模言語モデルの自己改善のためのAlphaLLMを紹介する。
モンテカルロ木探索(MCTS)とLLMを統合し、自己改善ループを確立する。
実験の結果,AlphaLLM は付加アノテーションを使わずに LLM の性能を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2024-04-18T15:21:34Z) - FAC$^2$E: Better Understanding Large Language Model Capabilities by
Dissociating Language and Cognition [57.747888532651]
大規模言語モデル(LLM)は、主に様々なテキスト理解および生成タスクにおける全体的なパフォーマンスによって評価される。
FAC$2$E, FAC$2$Eについて述べる。
論文 参考訳(メタデータ) (2024-02-29T21:05:37Z) - Bridging Causal Discovery and Large Language Models: A Comprehensive
Survey of Integrative Approaches and Future Directions [10.226735765284852]
因果発見(CD)とLarge Language Models(LLM)は、人工知能に重要な意味を持つ2つの新しい研究分野を表す。
本稿では,CDタスクへのLPM(GPT4など)の統合に関する総合的な調査を行う。
論文 参考訳(メタデータ) (2024-02-16T20:48:53Z) - A match made in consistency heaven: when large language models meet
evolutionary algorithms [51.087936554483804]
事前訓練された大規模言語モデル(LLM)は、創造的な自然言語を生成する強力な能力を持つ。
進化的アルゴリズム(EA)は、複雑な現実世界の問題に対する多様な解決策を発見できる。
テキストシーケンスの生成と進化の共通の集合性と方向性に動機づけられた本論文は,LLMとEAの強い一貫性を示す。
論文 参考訳(メタデータ) (2024-01-19T05:58:30Z) - Large Language Models for Generative Information Extraction: A Survey [93.28676955662002]
情報抽出は、平易な自然言語テキストから構造的知識を抽出することを目的としている。
生成型大規模言語モデル(LLM)は、テキストの理解と生成において顕著な能力を示した。
LLMは生成パラダイムに基づいたIEタスクに対して実行可能なソリューションを提供する。
論文 参考訳(メタデータ) (2023-12-29T14:25:22Z) - Large Language Models as Evolutionary Optimizers [37.92671242584431]
本稿では,大言語モデル(LLM)を進化論として初めて研究する。
主な利点は、最小限のドメイン知識と人間の努力が必要であり、モデルに追加のトレーニングは必要ありません。
また,進化探索における自己適応機構の有効性についても検討した。
論文 参考訳(メタデータ) (2023-10-29T15:44:52Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z) - Sight Beyond Text: Multi-Modal Training Enhances LLMs in Truthfulness
and Ethics [32.123919380959485]
MLLM(Multi-modal large language model)は、大規模言語モデル(LLM)に基づいて訓練される。
マルチモーダルなタスクでは優れているが、MLLMの純粋なNLP能力はしばしば過小評価され、テストされていない。
LLMをMLLMに移行するための一般的な戦略である視覚的インストラクションチューニングは、予期せぬ、興味深いことに、改善された真理性と倫理的整合性の両方を達成するのに役立ちます。
論文 参考訳(メタデータ) (2023-09-13T17:57:21Z) - A Comprehensive Overview of Large Language Models [68.22178313875618]
大規模言語モデル(LLM)は、最近自然言語処理タスクにおいて顕著な機能を示した。
本稿では, LLM関連概念の幅広い範囲について, 既存の文献について概説する。
論文 参考訳(メタデータ) (2023-07-12T20:01:52Z) - PRISMA-DFLLM: An Extension of PRISMA for Systematic Literature Reviews
using Domain-specific Finetuned Large Language Models [0.0]
本稿では,Large Language Models(LLMs)のパワーと,PRISMA(Preferred Reporting Items for Systematic Reviews and Meta-Analyses)の厳密な報告ガイドラインを組み合わせたAI対応方法論フレームワークを提案する。
厳密なSLRプロセスの結果として選択されたドメイン固有の学術論文にLCMを微調整することにより、提案するPRISMA-DFLLMレポートガイドラインは、より効率、再利用性、拡張性を達成する可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-15T02:52:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。