論文の概要: Nature-Inspired Population-Based Evolution of Large Language Models
- arxiv url: http://arxiv.org/abs/2503.01155v1
- Date: Mon, 03 Mar 2025 04:03:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:20:23.923225
- Title: Nature-Inspired Population-Based Evolution of Large Language Models
- Title(参考訳): 自然に着想を得た大規模言語モデルの進化
- Authors: Yiqun Zhang, Peng Ye, Xiaocui Yang, Shi Feng, Shufei Zhang, Lei Bai, Wanli Ouyang, Shuyue Hu,
- Abstract要約: 本稿では,大規模言語モデル(LLM)の人口ベース進化という,新たな課題を正式に定義する。
我々の枠組みは、人口が4つの重要な操作を通じて進化することを可能にする。
12のデータセットに対する実験により、我々のフレームワークは既存のマルチLLMマージおよびアダプティブメソッドよりも一貫して優れています。
- 参考スコア(独自算出の注目度): 58.81047484922555
- License:
- Abstract: Evolution, the engine behind the survival and growth of life on Earth, operates through the population-based process of reproduction. Inspired by this principle, this paper formally defines a newly emerging problem -- the population-based evolution of large language models (LLMs) -- and introduces a novel framework. Starting with a population of parent LLMs, our framework enables the population to evolve through four key operations: (i) crossover, merging the weights of different parents to create offspring LLMs, (ii) mutation, introducing small, random changes to model weights to foster diversity, (iii) selection, prioritizing high-performing models, and (iv) succession, transferring the learned experience from parent to offspring LLMs. With only 200 samples per new task, the LLM population evolves rapidly to adapt to the task at hand, without any gradients. Experiments on 12 datasets show that our framework consistently outperforms existing multi-LLM merging and adaptation methods, achieving accuracy gains of up to 54.8% over the best LLM in the initial population. Moreover, our framework allows for the evolution of LLMs across multiple new tasks simultaneously, scaling effectively with populations of up to 40 LLMs, and even zero-shot generalization to unseen held-out tasks. We have open-sourced the code on GitHub and released the weights of 10 parent LLMs, fine-tuned from gemma-2-2b-it, on HuggingFace$, enabling reproduction of our proposed framework using just a single 4090 GPU with 24GB memory, without any performance degradation.
- Abstract(参考訳): 地球上の生命の生存と成長を支えるエンジンである進化は、個体群に基づく再生プロセスを通じて機能する。
この原則に着想を得た本論文では,大規模言語モデル(LLM)の人口ベース進化という,新たな課題を正式に定義し,新たな枠組みを導入する。
親 LLM の人口から始めると、我々の枠組みは4つの重要な操作を通じて人口を進化させることができる。
(i)異父母の重みを合体させ、子孫のLSMを作る。
(ii)変異は、多様性を育むためにモデルウェイトに小さなランダムな変化をもたらす。
三 選抜、高性能モデルの優先順位付け及び
(4) 親から子への学習経験をLLMに移す。
新しいタスクごとに200のサンプルしか持たず、LSMの個体群は急速に進化し、手元のタスクに適応する。
12のデータセットに対する実験により、我々のフレームワークは既存のマルチLLMマージおよび適応手法を一貫して上回り、初期個体群で最高のLCMよりも54.8%の精度向上を実現していることがわかった。
さらに,本フレームワークは,複数の新しいタスクにまたがるLLMの進化を同時に実現し,最大40のLLMの集団で効果的にスケールし,また,持たないタスクに対してゼロショットの一般化も可能とした。
私たちはGitHubでコードをオープンソース化し、HuggingFace$でgemma-2-2b-itから微調整された10個のLLMの重みをリリースしました。
関連論文リスト
- MALT: Improving Reasoning with Multi-Agent LLM Training [66.9481561915524]
MALT(Multi-Agent LLM Training)は、推論プロセスを生成、検証、改善ステップに分割する、新しいポストトレーニング戦略である。
MATH、GSM8K、CSQAでは、MALTは、それぞれ15.66%、7.42%、9.40%の相対的な改善で同じベースラインLLMを上回っている。
論文 参考訳(メタデータ) (2024-12-02T19:30:36Z) - Model-GLUE: Democratized LLM Scaling for A Large Model Zoo in the Wild [84.57103623507082]
本稿では,全体論的な大規模言語モデルスケーリングガイドラインであるModel-GLUEを紹介する。
既存のスケーリングテクニック,特に選択的マージ,および混合の変種をベンチマークする。
次に、異種モデル動物園の選択と集約のための最適な戦略を定式化する。
我々の手法は、マージ可能なモデルのクラスタリング、最適なマージ戦略選択、クラスタの統合を含む。
論文 参考訳(メタデータ) (2024-10-07T15:55:55Z) - Mixture-of-Agents Enhances Large Language Model Capabilities [34.68610100315386]
我々は,Mixture-of-Agents(MoA)手法を用いて,多言語モデル(LLM)の総合的知識を活用する新しい手法を提案する。
提案手法では, 各層が複数のLLMエージェントから構成される層状MoAアーキテクチャを構築する。
MoAモデルは、AlpacaEval 2.0、MT-Bench、FLASKで、GPT-4 Omniを上回っている。
論文 参考訳(メタデータ) (2024-06-07T07:04:10Z) - A Survey on Self-Evolution of Large Language Models [116.54238664264928]
大規模言語モデル(LLM)は、様々な分野やインテリジェントエージェントアプリケーションにおいて大きく進歩している。
この問題に対処するために、LLMが自律的に獲得し、洗練し、モデル自身によって生成された経験から学ぶことができる自己進化的アプローチが急速に成長している。
論文 参考訳(メタデータ) (2024-04-22T17:43:23Z) - Bias Amplification in Language Model Evolution: An Iterated Learning Perspective [27.63295869974611]
我々は,Large Language Models (LLMs) の行動と人間の文化の進化の類似性を描いている。
我々のアプローチは、人間の文化進化においてどのように微妙なバイアスが拡大されるかを解明するベイズ的枠組みである反復学習(IL)を活用することである。
本稿では,ベイジアン・イルフレームワークにおけるエージェントの行動の特徴を概説する。
論文 参考訳(メタデータ) (2024-04-04T02:01:25Z) - LLM Guided Evolution - The Automation of Models Advancing Models [0.0]
ガイドド・エボリューション(GE)は、従来の機械学習アプローチから切り離された斬新なフレームワークである。
思想の進化(EoT)は、従来の突然変異の結果からLLMを反映して学習させることでGEを強化する。
ExquisiteNetV2モデルの進化におけるGEの適用は,その有効性を示している。
論文 参考訳(メタデータ) (2024-03-18T03:44:55Z) - Knowledge Fusion of Large Language Models [73.28202188100646]
本稿では,大規模言語モデル(LLM)における知識融合の概念を紹介する。
我々は、それらの集合的知識と独特な強みを外部化し、それによってターゲットモデルの能力が、どのソースLLMよりも高められるようにします。
この結果から,LLMの融合により,推論やコモンセンス,コード生成など,対象モデルの性能が向上することが確認された。
論文 参考訳(メタデータ) (2024-01-19T05:02:46Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。