論文の概要: A match made in consistency heaven: when large language models meet
evolutionary algorithms
- arxiv url: http://arxiv.org/abs/2401.10510v1
- Date: Fri, 19 Jan 2024 05:58:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 16:42:10.960895
- Title: A match made in consistency heaven: when large language models meet
evolutionary algorithms
- Title(参考訳): 一貫性天国における一致: 大きな言語モデルが進化的アルゴリズムを満たすとき
- Authors: Wang Chao, Jiaxuan Zhao, Licheng Jiao, Lingling Li, Fang Liu, Shuyuan
Yang
- Abstract要約: 事前訓練された大規模言語モデル(LLM)は、創造的な自然言語を生成する強力な能力を持つ。
進化的アルゴリズム(EA)は、複雑な現実世界の問題に対する多様な解決策を発見できる。
テキストシーケンスの生成と進化の共通の集合性と方向性に動機づけられた本論文は,LLMとEAの強い一貫性を示す。
- 参考スコア(独自算出の注目度): 51.087936554483804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pre-trained large language models (LLMs) have powerful capabilities for
generating creative natural text. Evolutionary algorithms (EAs) can discover
diverse solutions to complex real-world problems. Motivated by the common
collective and directionality of text sequence generation and evolution, this
paper illustrates the strong consistency of LLMs and EAs, which includes
multiple one-to-one key characteristics: token embedding and genotype-phenotype
mapping, position encoding and fitness shaping, position embedding and
selection, attention and crossover, feed-forward neural network and mutation,
model training and parameter update, and multi-task learning and
multi-objective optimization. Based on this consistency perspective, existing
coupling studies are analyzed, including evolutionary fine-tuning and
LLM-enhanced EAs. Leveraging these insights, we outline a fundamental roadmap
for future research in coupling LLMs and EAs, while highlighting key challenges
along the way. The consistency not only reveals the evolution mechanism behind
LLMs but also facilitates the development of evolved artificial agents that
approach or surpass biological organisms.
- Abstract(参考訳): 事前訓練された大規模言語モデル(LLM)は、創造的な自然言語を生成する強力な能力を持つ。
進化的アルゴリズム(EA)は、複雑な現実世界の問題に対する多様な解決策を発見できる。
本論文は,テキストシーケンス生成と進化の共通する集合的・指向性から,トークン埋め込みとジェノタイプ・フェノタイプマッピング,位置エンコーディングとフィットネス・シェーピング,位置埋め込みと選択,注意と交叉,フィードフォワードニューラルネットワークと変異,モデルトレーニングとパラメータ更新,マルチタスク学習と多目的最適化といった,複数の重要な特徴を含むLLMとEAの強い一貫性を示す。
この一貫性の観点から、進化的微調整やLLM強化EAを含む既存の結合研究が分析されている。
これらの洞察を生かして、LLMとEAの結合に関する将来の研究の基本的なロードマップを概説するとともに、その過程で重要な課題を強調します。
この一貫性はllmsの背後にある進化のメカニズムを明らかにするだけでなく、生物に接近または打ち勝つ進化した人工エージェントの開発を促進する。
関連論文リスト
- Evolutionary Reinforcement Learning: A Systematic Review and Future
Directions [18.631418642768132]
進化強化学習(EvoRL)は、複雑な問題解決における強化学習と進化アルゴリズム(EA)の限界に対する解決策である。
EvoRLはEAと強化学習を統合し、知的エージェントを訓練するための有望な道を提供する。
この体系的なレビューは、EvoRLの現状に関する洞察を提供し、人工知能の進化を続ける風景において、その能力を向上させるためのガイドを提供する。
論文 参考訳(メタデータ) (2024-02-20T02:07:57Z) - Entropy-Regularized Token-Level Policy Optimization for Large Language
Models [76.02428537504323]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
その結果,ETPO は CodeLlama-7B モデルで有効な性能向上を実現し,RLHF から受け継いだ変種 PPO ベースラインを超越していることがわかった。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - Evolutionary Computation in the Era of Large Language Model: Survey and
Roadmap [28.923533887367533]
大規模言語モデル (LLM) と進化的アルゴリズム (EA) の相互作用は、複雑な問題における適用可能性の共通の追求を共有している。
本稿では、相互インスピレーションを2つの主要な道に分類する、徹底的なレビューと前方のロードマップを提供する。
特定された課題と今後の方向性は、この革新的なコラボレーションの可能性を最大限に活用することを目指す研究者や実践者に対してガイダンスを提供する。
論文 参考訳(メタデータ) (2024-01-18T14:58:17Z) - xTrimoPGLM: Unified 100B-Scale Pre-trained Transformer for Deciphering
the Language of Protein [76.18058946124111]
本稿では,タンパク質の理解と生成を同時に行うために,統一されたタンパク質言語モデル xTrimoPGLM を提案する。
xTrimoPGLMは、4つのカテゴリにわたる18のタンパク質理解ベンチマークにおいて、他の高度なベースラインを著しく上回っている。
また、自然の原理に従ってデノボタンパク質配列を生成でき、微調整を監督した後にプログラム可能な生成を行うことができる。
論文 参考訳(メタデータ) (2024-01-11T15:03:17Z) - Large Language Models as Evolutionary Optimizers [40.689519978893834]
本稿では,大言語モデル(LLM)を進化論として初めて研究する。
主な利点は、最小限のドメイン知識と人間の努力が必要であり、モデルに追加のトレーニングは必要ありません。
また,進化探索における自己適応機構の有効性についても検討した。
論文 参考訳(メタデータ) (2023-10-29T15:44:52Z) - Evolutionary Dynamic Optimization and Machine Learning [0.0]
進化計算(Evolutionary Computation, EC)は、人工知能の強力な分野として出現し、徐々に発展する自然のメカニズムに触発されている。
これらの制限を克服するために、研究者は学習アルゴリズムと進化的手法を統合した。
この統合は、反復探索中にECアルゴリズムによって生成された貴重なデータを活用し、検索空間と人口動態に関する洞察を提供する。
論文 参考訳(メタデータ) (2023-10-12T22:28:53Z) - Making LLaMA SEE and Draw with SEED Tokenizer [69.1083058794092]
大規模言語モデルにSEEとDrawの能力を持たせるための精巧な画像トークンであるSEEDを紹介します。
SEEDトークンを使うことで、LLMはオリジナルのトレーニングレシピの下でスケーラブルなマルチモーダルオートレグレスを実行することができる。
SEED-LLaMAはマルチターン・イン・コンテクスト・マルチモーダル生成のような合成創発的能力を示す。
論文 参考訳(メタデータ) (2023-10-02T14:03:02Z) - Connecting Large Language Models with Evolutionary Algorithms Yields
Powerful Prompt Optimizers [70.18534453485849]
EvoPromptは離散的なプロンプト最適化のためのフレームワークである。
進化的アルゴリズム(EA)の概念は、優れた性能と高速収束を示すものである。
人為的なプロンプトと既存の方法で自動プロンプト生成を著しく上回っている。
論文 参考訳(メタデータ) (2023-09-15T16:50:09Z) - A Survey on Learnable Evolutionary Algorithms for Scalable
Multiobjective Optimization [0.0]
多目的進化アルゴリズム(MOEA)は、様々な多目的最適化問題(MOP)を解決するために採用されている。
しかし、これらの進歩的に改善されたMOEAは、必ずしも高度にスケーラブルで学習可能な問題解決戦略を備えていない。
異なるシナリオの下では、効果的に解決するための新しい強力なMOEAを設計する必要がある。
MOPをスケールアップするための機械学習技術で自身を操る学習可能なMOEAの研究は、進化計算の分野で広く注目を集めている。
論文 参考訳(メタデータ) (2022-06-23T08:16:01Z) - Investigating Bi-Level Optimization for Learning and Vision from a
Unified Perspective: A Survey and Beyond [114.39616146985001]
機械学習やコンピュータビジョンの分野では、モチベーションやメカニズムが異なるにもかかわらず、複雑な問題の多くは、一連の密接に関連するサブプロトコルを含んでいる。
本稿では,BLO(Bi-Level Optimization)の観点から,これらの複雑な学習と視覚問題を一様に表現する。
次に、値関数に基づく単一レベル再構成を構築し、主流勾配に基づくBLO手法を理解し、定式化するための統一的なアルゴリズムフレームワークを確立する。
論文 参考訳(メタデータ) (2021-01-27T16:20:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。