論文の概要: Automatic Instruction Evolving for Large Language Models
- arxiv url: http://arxiv.org/abs/2406.00770v1
- Date: Sun, 2 Jun 2024 15:09:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 03:36:42.504023
- Title: Automatic Instruction Evolving for Large Language Models
- Title(参考訳): 大規模言語モデルのための自動指導
- Authors: Weihao Zeng, Can Xu, Yingxiu Zhao, Jian-Guang Lou, Weizhu Chen,
- Abstract要約: Auto Evol-Instructは、人間の努力なしに大規模な言語モデルを使用して命令データセットを進化させるエンドツーエンドフレームワークである。
実験の結果, Auto Evol-Instruct で最適化された最良の手法は, 様々なベンチマークにおいて, 人為的に設計した手法よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 93.52437926313621
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fine-tuning large pre-trained language models with Evol-Instruct has achieved encouraging results across a wide range of tasks. However, designing effective evolving methods for instruction evolution requires substantial human expertise. This paper proposes Auto Evol-Instruct, an end-to-end framework that evolves instruction datasets using large language models without any human effort. The framework automatically analyzes and summarizes suitable evolutionary strategies for the given instruction data and iteratively improves the evolving method based on issues exposed during the instruction evolution process. Our extensive experiments demonstrate that the best method optimized by Auto Evol-Instruct outperforms human-designed methods on various benchmarks, including MT-Bench, AlpacaEval, GSM8K, and HumanEval.
- Abstract(参考訳): Evol-Instructで訓練済みの大規模言語モデルを微調整することで、幅広いタスクにまたがる奨励的な結果が得られました。
しかし、命令進化のための効果的な進化手法を設計するには、かなりの人間の専門知識が必要である。
本稿では,大規模言語モデルを用いた命令データセットを人間の努力なしに進化させる,エンド・ツー・エンドのフレームワークであるAuto Evol-Instructを提案する。
このフレームワークは、与えられた命令データに対して適切な進化戦略を自動解析し、要約し、命令進化過程中に露呈した問題に基づいて進化手法を反復的に改善する。
MT-Bench、AlpacaEval、GSM8K、HumanEvalなど、さまざまなベンチマークにおいて、Auto Evol-Instructによって最適化された最良の手法が人間設計の手法より優れていることを示す。
関連論文リスト
- Instruction Tuning for Story Understanding and Generation with Weak Supervision [0.5530212768657544]
本稿では,ストーリー生成を改善するために,"Weak to Strong Instruction Tuning"という新しいアプローチを提案する。
本手法は物語の理解と生成における性能を著しく向上させることを示す。
本研究は, 複雑な物語タスクのための生成モデルを改良する上で, 適応的指導チューニングが強力なツールであることを示す。
論文 参考訳(メタデータ) (2025-01-26T15:59:31Z) - Dynamic Skill Adaptation for Large Language Models [78.31322532135272]
動的スキル適応(Dynamic Skill Adaptation, DSA)は, 言語モデル(LLM)に新しい複雑なスキルを適応させる適応的かつ動的フレームワークである。
各スキルに対して,学習前スキルの詳細な記述を含む教科書的データと,学習前スキルの具体的活用を目標とした演習的データの両方を生成する。
LLAMA や Mistral のような大規模言語モデルを用いた実験は,提案手法が数学推論スキルや社会学習スキルに適応する上で有効であることを示す。
論文 参考訳(メタデータ) (2024-12-26T22:04:23Z) - ModelGrow: Continual Text-to-Video Pre-training with Model Expansion and Language Understanding Enhancement [49.513401043490305]
本研究は,テキスト・ビデオ・モデルの連続的な事前学習について考察する。
私たちはこのタスクを、モデルのキャパシティの向上とセマンティック理解の改善という、2つの重要な側面に分割します。
意味理解のために,大規模言語モデルを高度なテキストエンコーダとして活用する手法を提案する。
論文 参考訳(メタデータ) (2024-12-25T18:58:07Z) - Adaptive Optimization for Enhanced Efficiency in Large-Scale Language Model Training [3.668740611399284]
大規模言語モデル (LLM) は様々なタスクにおいて顕著な成果を上げている。
本稿では適応最適化アルゴリズムに基づく改良手法を提案する。
論文 参考訳(メタデータ) (2024-12-06T02:17:30Z) - A Post-Training Enhanced Optimization Approach for Small Language Models [0.0]
本稿では,小言語モデルに対する連続的な学習後アライメントデータ構築法を提案する。
本手法のコアは大規模モデルのデータガイダンスに基づいて,アライメントデータの多様性と精度を最適化する。
論文 参考訳(メタデータ) (2024-11-05T09:32:26Z) - Learning to optimize by multi-gradient for multi-objective optimization [0.0]
我々はMOO問題を最適化するための新しい自動学習パラダイムを導入し、ML2O法を提案する。
学習に基づく手法として、ML2Oは現在のステップからの情報を活用することで、地域景観の知識を取得する。
我々の学習は、マルチタスク学習(MTL)ニューラルネットワークのトレーニングにおいて、手作りの競争相手よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-01T14:55:54Z) - InstOptima: Evolutionary Multi-objective Instruction Optimization via
Large Language Model-based Instruction Operators [9.004528034920266]
InstOptimaは、命令生成を進化的多目的最適化問題として扱う。
演算子に対して客観的誘導機構を導入し、LLMが目的を理解し、生成した命令の品質を向上させる。
実験により、微調整性能の向上と、高品質な命令セットの多種多様な生成が示された。
論文 参考訳(メタデータ) (2023-10-26T17:48:45Z) - SDA: Improving Text Generation with Self Data Augmentation [88.24594090105899]
自動データ拡張のための自己模倣学習フェーズを組み込むことにより,標準最大確率推定(MLE)パラダイムを改善することを提案する。
既存の文レベルの拡張戦略とは異なり,本手法はより汎用的で,任意のMLEベースの訓練手順に容易に適応できる。
論文 参考訳(メタデータ) (2021-01-02T01:15:57Z) - Selecting Informative Contexts Improves Language Model Finetuning [66.26521454263343]
本稿では,情報ゲインフィルタと呼ぶ汎用的な微調整手法を提案する。
微調整中、二次学習者は情報的例を選択し、非情報的例をスキップする。
提案手法は,データセット,微調整タスク,言語モデルアーキテクチャ間で一貫した改善がなされていることを示す。
論文 参考訳(メタデータ) (2020-05-01T02:01:18Z) - Recall and Learn: Fine-tuning Deep Pretrained Language Models with Less
Forgetting [66.45372974713189]
本稿では,マルチタスク学習の概念を取り入れたリコール・アンド・ラーニング機構を提案し,事前学習タスクと下流タスクを共同で学習する。
実験により,本手法はGLUEベンチマークの最先端性能を実現することが示された。
我々はオープンソースのRecAdamを提供し、提案されたメカニズムをAdamに統合し、NLPコミュニティを施設化する。
論文 参考訳(メタデータ) (2020-04-27T08:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。