論文の概要: Automatic Instruction Evolving for Large Language Models
- arxiv url: http://arxiv.org/abs/2406.00770v1
- Date: Sun, 2 Jun 2024 15:09:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 03:36:42.504023
- Title: Automatic Instruction Evolving for Large Language Models
- Title(参考訳): 大規模言語モデルのための自動指導
- Authors: Weihao Zeng, Can Xu, Yingxiu Zhao, Jian-Guang Lou, Weizhu Chen,
- Abstract要約: Auto Evol-Instructは、人間の努力なしに大規模な言語モデルを使用して命令データセットを進化させるエンドツーエンドフレームワークである。
実験の結果, Auto Evol-Instruct で最適化された最良の手法は, 様々なベンチマークにおいて, 人為的に設計した手法よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 93.52437926313621
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fine-tuning large pre-trained language models with Evol-Instruct has achieved encouraging results across a wide range of tasks. However, designing effective evolving methods for instruction evolution requires substantial human expertise. This paper proposes Auto Evol-Instruct, an end-to-end framework that evolves instruction datasets using large language models without any human effort. The framework automatically analyzes and summarizes suitable evolutionary strategies for the given instruction data and iteratively improves the evolving method based on issues exposed during the instruction evolution process. Our extensive experiments demonstrate that the best method optimized by Auto Evol-Instruct outperforms human-designed methods on various benchmarks, including MT-Bench, AlpacaEval, GSM8K, and HumanEval.
- Abstract(参考訳): Evol-Instructで訓練済みの大規模言語モデルを微調整することで、幅広いタスクにまたがる奨励的な結果が得られました。
しかし、命令進化のための効果的な進化手法を設計するには、かなりの人間の専門知識が必要である。
本稿では,大規模言語モデルを用いた命令データセットを人間の努力なしに進化させる,エンド・ツー・エンドのフレームワークであるAuto Evol-Instructを提案する。
このフレームワークは、与えられた命令データに対して適切な進化戦略を自動解析し、要約し、命令進化過程中に露呈した問題に基づいて進化手法を反復的に改善する。
MT-Bench、AlpacaEval、GSM8K、HumanEvalなど、さまざまなベンチマークにおいて、Auto Evol-Instructによって最適化された最良の手法が人間設計の手法より優れていることを示す。
関連論文リスト
- A Post-Training Enhanced Optimization Approach for Small Language Models [0.0]
本稿では,小言語モデルに対する連続的な学習後アライメントデータ構築法を提案する。
本手法のコアは大規模モデルのデータガイダンスに基づいて,アライメントデータの多様性と精度を最適化する。
論文 参考訳(メタデータ) (2024-11-05T09:32:26Z) - Augmentation Policy Generation for Image Classification Using Large Language Models [3.038642416291856]
本稿では,大規模言語モデルを用いて効率的な拡張ポリシーを自動生成する戦略を提案する。
提案手法は医用画像データセットを用いて評価され,最先端の手法よりも明確な改善が見られた。
論文 参考訳(メタデータ) (2024-10-17T11:26:10Z) - InternLM2 Technical Report [159.70692271378581]
本稿では,オープンソースのLarge Language Models (LLM) であるInternLM2を紹介する。
InternLM2の事前トレーニングプロセスは細部まで詳細に書かれており、多様なデータ型の準備が強調されている。
InternLM2は、4kトークンでトレーニングされた長期的依存関係を効率的にキャプチャし、事前トレーニングおよび微調整の段階で32kトークンに進む。
論文 参考訳(メタデータ) (2024-03-26T00:53:24Z) - Learning to optimize by multi-gradient for multi-objective optimization [0.0]
我々はMOO問題を最適化するための新しい自動学習パラダイムを導入し、ML2O法を提案する。
学習に基づく手法として、ML2Oは現在のステップからの情報を活用することで、地域景観の知識を取得する。
我々の学習は、マルチタスク学習(MTL)ニューラルネットワークのトレーニングにおいて、手作りの競争相手よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-01T14:55:54Z) - InstOptima: Evolutionary Multi-objective Instruction Optimization via
Large Language Model-based Instruction Operators [9.004528034920266]
InstOptimaは、命令生成を進化的多目的最適化問題として扱う。
演算子に対して客観的誘導機構を導入し、LLMが目的を理解し、生成した命令の品質を向上させる。
実験により、微調整性能の向上と、高品質な命令セットの多種多様な生成が示された。
論文 参考訳(メタデータ) (2023-10-26T17:48:45Z) - Improving Non-autoregressive Generation with Mixup Training [51.61038444990301]
本稿では,事前学習したトランスモデルに基づく非自己回帰生成モデルを提案する。
我々はMIxソースと擬似ターゲットという,シンプルで効果的な反復訓練手法を提案する。
質問生成,要約,パラフレーズ生成を含む3つの世代ベンチマーク実験により,提案手法が新たな最先端結果を実現することを示す。
論文 参考訳(メタデータ) (2021-10-21T13:04:21Z) - SDA: Improving Text Generation with Self Data Augmentation [88.24594090105899]
自動データ拡張のための自己模倣学習フェーズを組み込むことにより,標準最大確率推定(MLE)パラダイムを改善することを提案する。
既存の文レベルの拡張戦略とは異なり,本手法はより汎用的で,任意のMLEベースの訓練手順に容易に適応できる。
論文 参考訳(メタデータ) (2021-01-02T01:15:57Z) - Selecting Informative Contexts Improves Language Model Finetuning [66.26521454263343]
本稿では,情報ゲインフィルタと呼ぶ汎用的な微調整手法を提案する。
微調整中、二次学習者は情報的例を選択し、非情報的例をスキップする。
提案手法は,データセット,微調整タスク,言語モデルアーキテクチャ間で一貫した改善がなされていることを示す。
論文 参考訳(メタデータ) (2020-05-01T02:01:18Z) - Recall and Learn: Fine-tuning Deep Pretrained Language Models with Less
Forgetting [66.45372974713189]
本稿では,マルチタスク学習の概念を取り入れたリコール・アンド・ラーニング機構を提案し,事前学習タスクと下流タスクを共同で学習する。
実験により,本手法はGLUEベンチマークの最先端性能を実現することが示された。
我々はオープンソースのRecAdamを提供し、提案されたメカニズムをAdamに統合し、NLPコミュニティを施設化する。
論文 参考訳(メタデータ) (2020-04-27T08:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。