論文の概要: Boosting Natural Language Generation from Instructions with
Meta-Learning
- arxiv url: http://arxiv.org/abs/2210.11617v1
- Date: Thu, 20 Oct 2022 22:23:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 13:43:31.849827
- Title: Boosting Natural Language Generation from Instructions with
Meta-Learning
- Title(参考訳): メタ学習によるインストラクションからの自然言語生成の促進
- Authors: Budhaditya Deb, Guoqing Zheng, Ahmed Hassan Awadallah
- Abstract要約: 最近の研究によると、言語モデル(LM)はマルチタスクで訓練されている。
Textitinstructional Learning (MTIL) は多様なNLPを解くことができる。
即時チューニングよりもパフォーマンスが向上したタスク。
本稿では,MTILに適用したメタラーニングが,ゼロショット設定における未確認タスクへの一般化をさらに改善できるかどうかを検討する。
- 参考スコア(独自算出の注目度): 43.64522457686405
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work has shown that language models (LMs) trained with multi-task
\textit{instructional learning} (MTIL) can solve diverse NLP tasks in zero- and
few-shot settings with improved performance compared to prompt tuning. MTIL
illustrates that LMs can extract and use information about the task from
instructions beyond the surface patterns of the inputs and outputs. This
suggests that meta-learning may further enhance the utilization of instructions
for effective task transfer. In this paper we investigate whether meta-learning
applied to MTIL can further improve generalization to unseen tasks in a
zero-shot setting. Specifically, we propose to adapt meta-learning to MTIL in
three directions: 1) Model Agnostic Meta Learning (MAML), 2) Hyper-Network
(HNet) based adaptation to generate task specific parameters conditioned on
instructions, and 3) an approach combining HNet and MAML. Through extensive
experiments on the large scale Natural Instructions V2 dataset, we show that
our proposed approaches significantly improve over strong baselines in
zero-shot settings. In particular, meta-learning improves the effectiveness of
instructions and is most impactful when the test tasks are strictly zero-shot
(i.e. no similar tasks in the training set) and are "hard" for LMs,
illustrating the potential of meta-learning for MTIL for out-of-distribution
tasks.
- Abstract(参考訳): 最近の研究によると、マルチタスクのtextit{instructional learning} (MTIL) で訓練された言語モデル(LM) は、即時チューニングよりもパフォーマンスが向上し、ゼロおよび少数ショット設定で多様なNLPタスクを解くことができる。
MTILは、LMが入力と出力の表面パターンを超えた命令からタスクに関する情報を抽出し、使用することができることを示している。
これはメタラーニングが効果的なタスク転送のための命令の利用をさらに強化することを示唆している。
本稿では,MTILに適用したメタラーニングが,ゼロショット設定における未確認タスクへの一般化をさらに改善できるかどうかを検討する。
具体的には,メタラーニングをMTILに3方向に適応させることを提案する。
1)モデル非依存型メタ学習(maml)
2)ハイパーネットワーク(hnet)に基づく命令を条件としたタスク固有パラメータ生成への適応
3) HNet と MAML を組み合わせたアプローチ。
大規模自然命令v2データセットに関する広範囲な実験を通じて,提案手法がゼロショット設定の強いベースラインよりも大幅に改善することを示す。
特に、メタラーニングは命令の有効性を改善し、テストタスクが厳密にゼロショット(すなわちトレーニングセットに類似したタスクがない)であり、lmsにとって「困難」であり、mtilの分散タスクのためのメタラーニングの可能性を示す。
関連論文リスト
- SwitchCIT: Switching for Continual Instruction Tuning of Large Language Models [14.085371250265224]
大規模言語モデル(LLM)は、様々な領域、特に一般的な言語理解において印象的な能力を発揮している。
しかし、これらのモデルは大量のテキストデータに基づいて訓練されており、命令によって引き起こされる特定のタスクに対して微妙に最適化されていないかもしれない。
本研究は, LLMの連続的な命令学習において, パラメータ効率の高いチューニングモデルに演算をルーティングする切替機構を通じて, 破滅的な忘れに対処するものである。
論文 参考訳(メタデータ) (2024-07-16T14:37:33Z) - From Instance Training to Instruction Learning: Task Adapters Generation from Instructions [29.452006810725184]
本稿では,事例学習の欠点に対処するために,人間の学習をシミュレートすることに焦点を当てる。
タスク固有のモデルを自動的に構築するTAGI(Task Adapters from Instructions)を導入する。
超自然的インストラクションとP3データセットを用いたTAGIの評価を行った。
論文 参考訳(メタデータ) (2024-06-18T08:14:28Z) - Instruction Tuning With Loss Over Instructions [42.9106826952674]
インストラクション・モデリング(IM)は、出力部のみではなく、インストラクションとプロンプト部に損失関数を適用してLMを訓練する。
多くのシナリオにおいて、IMはNLPタスクとオープン・エンド・ジェネレーション・ベンチマークの両方でのLM性能を効果的に改善できることを示す。
注目すべきは、最も有利な場合、IMはAlpacaEval 1.0のモデルパフォーマンスを100%以上向上させることだ。
論文 参考訳(メタデータ) (2024-05-23T10:12:03Z) - TransPrompt v2: A Transferable Prompting Framework for Cross-task Text
Classification [37.824031151922604]
そこで本研究では,テキスト分類タスク間の数ショット学習を実現するための,トランスプロンプトv2を提案する。
類似したタスクを学習するために、メタラーナーを訓練するためにマルチタスクメタ知識獲得(MMA)手順を用いる。
遠隔タスクを学習するために、タスクタイプ記述をプロンプトに注入し、タイプ内およびタイプ間プロンプト埋め込みをキャプチャする。
論文 参考訳(メタデータ) (2023-08-29T04:16:57Z) - Instruction Position Matters in Sequence Generation with Large Language
Models [67.87516654892343]
大規模言語モデル(LLM)は、翻訳や要約といった条件付きシーケンス生成タスクを実行することができる。
入力文の後にタスク命令の位置をシフトさせることにより,LLMの指示追従能力を向上させることを提案する。
論文 参考訳(メタデータ) (2023-08-23T12:36:57Z) - MetaICL: Learning to Learn In Context [87.23056864536613]
そこで我々は,メタICLというメタトレーニングフレームワークを紹介した。このフレームワークでは,事前学習された言語モデルが,大量のトレーニングタスクに対してコンテキスト内学習を行うように調整されている。
その結果,MetaICLは,目標タスクトレーニングデータに対して完全に微調整されたモデルの性能にアプローチ(時には打ち負かす)し,ほぼ8倍のパラメータを持つモデルよりも優れた性能を示すことがわかった。
論文 参考訳(メタデータ) (2021-10-29T17:42:08Z) - Knowledge-Aware Meta-learning for Low-Resource Text Classification [87.89624590579903]
本稿では,低リソーステキスト分類問題について検討し,メタトレーニングとメタテストのギャップを埋める。
抽出した文固有知識グラフから学習した各文に対する追加表現を提案する。
論文 参考訳(メタデータ) (2021-09-10T07:20:43Z) - Variable-Shot Adaptation for Online Meta-Learning [123.47725004094472]
従来のタスクから静的データにまたがるメタラーニングによって,少数の固定された例から新しいタスクを学習する問題について検討する。
メタラーニングは,従来の教師付き手法に比べて,ラベルの総数が少なく,累積性能も高いタスクセットを解く。
これらの結果から,メタラーニングは,一連の問題を継続的に学習し,改善する学習システムを構築する上で重要な要素であることが示唆された。
論文 参考訳(メタデータ) (2020-12-14T18:05:24Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。