論文の概要: Fine-tuning Large Language Models with Sequential Instructions
- arxiv url: http://arxiv.org/abs/2403.07794v1
- Date: Tue, 12 Mar 2024 16:33:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 20:56:29.644897
- Title: Fine-tuning Large Language Models with Sequential Instructions
- Title(参考訳): 逐次命令による大規模言語モデルの微調整
- Authors: Hanxu Hu, Pinzhen Chen, Edoardo M. Ponti
- Abstract要約: 大きな言語モデル(LLM)は、その一部を無視したり誤解させたりするため、単一のクエリで命令列に従うのに苦労する。
本稿では,命令処理データを自動的に拡張し,複数の逐次命令を実行する能力を備えたLCMを装備するシーケンシャル命令チューニング手法を提案する。
逐次的命令調整モデルは、推論、多言語、マルチモーダル能力を含む下流タスクにおいて、従来の命令調整ベースラインを一貫して上回ります。
- 参考スコア(独自算出の注目度): 2.8967653906025426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) struggle to follow a sequence of instructions in
a single query as they may ignore or misinterpret part of it. This impairs
their performance in complex problems whose solution requires multiple
intermediate steps, such as multilingual (translate then answer) and multimodal
(caption then answer) tasks. We empirically verify this with open-source LLMs
as large as LLaMA-2 70B and Mixtral-8x7B. Targeting the scarcity of sequential
instructions in present-day data, we propose sequential instruction tuning, a
simple yet effective strategy to automatically augment instruction tuning data
and equip LLMs with the ability to execute multiple sequential instructions.
After exploring interleaving instructions in existing datasets, such as Alpaca,
with a wide range of intermediate tasks, we find that sequential
instruction-tuned models consistently outperform the conventional
instruction-tuned baselines in downstream tasks involving reasoning,
multilingual, and multimodal abilities. To shed further light on our technique,
we analyse how adversarial intermediate texts, unseen tasks, prompt
verbalization, number of tasks, and prompt length affect SIT. We hope that this
method will open new research avenues on instruction tuning for complex tasks.
- Abstract(参考訳): 大きな言語モデル(LLM)は、その一部を無視したり誤解させたりするため、単一のクエリで命令列に従うのに苦労する。
これは、多言語(翻訳、応答)やマルチモーダル(カプセル、応答)タスクのような複数の中間ステップを必要とする複雑な問題において、それらの性能を損なう。
LLaMA-2 70B や Mixtral-8x7B のようなオープンソースの LLM でこれを実証的に検証する。
現在のデータにおけるシーケンシャル命令の不足をターゲットとして、命令チューニングデータを自動的に強化し、複数のシーケンシャル命令を実行する機能を備えた簡易かつ効果的な戦略であるシーケンシャル命令チューニングを提案する。
アルパカのような既存のデータセットのインターリーブ命令を幅広い中間タスクで探索した後、シーケンシャル命令チューニングモデルは、推論、多言語、マルチモーダル能力を含む下流タスクにおいて、従来の命令チューニングベースラインを一貫して上回っていることがわかった。
本手法をさらに光を当てるために,敵対的な中間テキスト,目に見えないタスク,迅速な動詞化,タスク数,迅速な長さがSITに与える影響を分析する。
本手法は,複雑なタスクのチューニングに関する新たな研究の道を開くことを期待する。
関連論文リスト
- Meta-Task Prompting Elicits Embedding from Large Language Models [57.50329659098592]
本稿では,新しい教師なし埋め込み手法であるMeta-Task Prompting with Explicit One-Word Limitationを提案する。
モデル微調整やタスク固有のエンジニアリングを必要とせずに、大規模言語モデルから高品質な文の埋め込みを生成する。
実験により, 各種メタタスクから平均化された埋め込みは, セマンティックテキスト類似度ベンチマーク上での競合性能を示すことを示した。
本研究は, 埋込抽出のための多用途, 資源効率のよい手法を提供する, 埋込生成のための新しいスケーリング法則を示唆する。
論文 参考訳(メタデータ) (2024-02-28T16:35:52Z) - INSTRAUG: Automatic Instruction Augmentation for Multimodal Instruction
Fine-tuning [28.667060630303183]
本研究では,マルチモーダルタスクにおいて,INSTRAUGという自動命令拡張手法を導入する。
2つの人気のあるマルチモーダル命令フォローベンチマークの結果、INSTRAUGは12のマルチモーダルタスク間でのMLLM(Multimodal Large Language Model)のアライメントを大幅に改善できることが示された。
論文 参考訳(メタデータ) (2024-02-22T12:35:50Z) - INTERS: Unlocking the Power of Large Language Models in Search with
Instruction Tuning [59.07490387145391]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて印象的な機能を示している。
情報検索(IR)タスクへのそれらの適用は、自然言語における多くのIR固有の概念の頻繁な発生のため、いまだに困難である。
我々は,3つの基本IRカテゴリにまたがる20のタスクを含む新しいインストラクションチューニングデータセット InterS を導入する。
論文 参考訳(メタデータ) (2024-01-12T12:10:28Z) - Instruction Position Matters in Sequence Generation with Large Language
Models [67.87516654892343]
大規模言語モデル(LLM)は、翻訳や要約といった条件付きシーケンス生成タスクを実行することができる。
入力文の後にタスク命令の位置をシフトさせることにより,LLMの指示追従能力を向上させることを提案する。
論文 参考訳(メタデータ) (2023-08-23T12:36:57Z) - Multi-Task Instruction Tuning of LLaMa for Specific Scenarios: A
Preliminary Study on Writing Assistance [60.40541387785977]
小さな基礎モデルは、命令駆動データを用いて微調整された場合、多様なタスクに対処する際、顕著な習熟度を示すことができる。
本研究は, 汎用的な指導よりも, 1つないし数つの特定のタスクに主眼を置いている, 実践的な問題設定について検討する。
実験結果から,命令データに対する微調整LLaMAは,タスクの記述能力を大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-05-22T16:56:44Z) - MultiInstruct: Improving Multi-Modal Zero-Shot Learning via Instruction
Tuning [24.741736629886564]
インストラクションチューニングは、命令によって指定されたタスクで事前訓練された言語モデルを微調整する新しい学習パラダイムである。
MUL-TIINSTRUCTは,最初のマルチモーダル・インストラクション・チューニング・ベンチマーク・データセットである。
各種マルチモーダルタスクにおけるゼロショット性能と,テキストのみの命令データセットからの変換学習の利点を示す。
論文 参考訳(メタデータ) (2022-12-21T05:17:06Z) - Decomposed Prompting: A Modular Approach for Solving Complex Tasks [55.42850359286304]
本稿では,より単純なサブタスクに分解することで,複雑なタスクを解くための分解プロンプトを提案する。
このモジュール構造は、各プロンプトを特定のサブタスクに最適化することを可能にする。
Decomposed Promptingの柔軟性とモジュラリティは、数発のプロンプトで先行作業より優れていることを示す。
論文 参考訳(メタデータ) (2022-10-05T17:28:20Z) - CINS: Comprehensive Instruction for Few-shot Learning in Task-oriented
Dialog Systems [56.302581679816775]
本稿では,タスク固有の命令でPLMを利用する包括的インストラクション(CINS)を提案する。
命令のスキーマ(定義、制約、プロンプト)と、ToDの3つの重要な下流タスクに対するカスタマイズされた実現を設計する。
これらのToDタスクに対して,小さな検証データを用いた現実的な数ショット学習シナリオで実験を行った。
論文 参考訳(メタデータ) (2021-09-10T03:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。