論文の概要: Quantifying Adaptability in Pre-trained Language Models with 500 Tasks
- arxiv url: http://arxiv.org/abs/2112.03204v1
- Date: Mon, 6 Dec 2021 18:00:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 14:21:14.460429
- Title: Quantifying Adaptability in Pre-trained Language Models with 500 Tasks
- Title(参考訳): 500タスクの事前学習言語モデルにおける適応性の定量化
- Authors: Belinda Z. Li, Jane Yu, Madian Khabsa, Luke Zettlemoyer, Alon Halevy,
Jacob Andreas
- Abstract要約: 本稿では,新しいベンチマークであるTaskBench500を用いて,LM適応性の特徴と限界に関する大規模な実証的研究を行う。
我々は適応性の3つの側面を評価し、適応手順が小さなデータセットを記憶する能力において劇的に異なることを発見した。
実験の結果、新しいタスクへの適応性、例えば新しい例への一般化は体系的に記述され、理解されることがわかった。
- 参考スコア(独自算出の注目度): 60.0364822929442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When a neural language model (LM) is adapted to perform a new task, what
aspects of the task predict the eventual performance of the model? In NLP,
systematic features of LM generalization to individual examples are well
characterized, but systematic aspects of LM adaptability to new tasks are not
nearly as well understood. We present a large-scale empirical study of the
features and limits of LM adaptability using a new benchmark, TaskBench500,
built from 500 procedurally generated sequence modeling tasks. These tasks
combine core aspects of language processing, including lexical semantics,
sequence processing, memorization, logical reasoning, and world knowledge.
Using TaskBench500, we evaluate three facets of adaptability, finding that: (1)
adaptation procedures differ dramatically in their ability to memorize small
datasets; (2) within a subset of task types, adaptation procedures exhibit
compositional adaptability to complex tasks; and (3) failure to match training
label distributions is explained by mismatches in the intrinsic difficulty of
predicting individual labels. Our experiments show that adaptability to new
tasks, like generalization to new examples, can be systematically described and
understood, and we conclude with a discussion of additional aspects of
adaptability that could be studied using the new benchmark.
- Abstract(参考訳): ニューラル言語モデル(LM)が新しいタスクを実行するように適応された場合、タスクのどの側面がモデルの最終的なパフォーマンスを予測するのか?
NLPでは、個々の例に対するLM一般化の体系的特徴はよく特徴づけられるが、新しいタスクに対するLM適応性の体系的側面はほとんど理解されていない。
我々は,500個の手続き生成シーケンスモデリングタスクから構築した新しいベンチマークtaskbench500を用いて,lm適応性の特徴と限界に関する大規模実証研究を行った。
これらのタスクは、語彙意味論、シーケンス処理、記憶、論理的推論、世界知識を含む言語処理の中核的な側面を組み合わせる。
taskbench500を用いて適応性の3つの面を評価し,(1)小さなデータセットを記憶する能力において適応手順が劇的に異なること,(2)タスクのサブセット内では複雑なタスクに構成的適応性を示すこと,(3)ラベル分布の訓練に適合しないことは,個々のラベルを予測できない本質的な難しさのミスマッチによって説明できることを明らかにした。
実験の結果,新しい課題への適応性,例えば新しい例への一般化などについて体系的に記述し,理解し,新しいベンチマークを用いて検討できる適応性の追加的な側面について考察した。
関連論文リスト
- Limits of Transformer Language Models on Learning to Compose Algorithms [77.2443883991608]
我々は,LLaMAモデルのトレーニングと,複数の個別サブタスクの合成学習を必要とする4つのタスクにおけるGPT-4とGeminiの促進について検討した。
その結果,現在最先端のTransformer言語モデルにおける構成学習は,非常に非効率なサンプルであることが示唆された。
論文 参考訳(メタデータ) (2024-02-08T16:23:29Z) - Generalization to New Sequential Decision Making Tasks with In-Context
Learning [23.36106067650874]
少数のデモから新しいタスクを学習できる自律エージェントの訓練は、機械学習における長年の問題である。
本稿では,変換器を逐次決定問題に適用しても,新しいタスクの文脈内学習は不可能であることを示す。
我々は、異なる設計選択を調査し、より大きなモデルとデータセットサイズ、さらにタスクの多様性、環境、トラジェクトリのバーストネスが、新しいアウト・オブ・ディストリビューションタスクのコンテキスト内学習の改善をもたらすことを発見した。
論文 参考訳(メタデータ) (2023-12-06T15:19:28Z) - Towards Task Sampler Learning for Meta-Learning [37.02030832662183]
メタラーニングは、限られたデータから行われる多様なトレーニングタスクで一般的な知識を学び、それを新しいタスクに転送することを目的としている。
タスク多様性の増大はメタラーニングモデルの一般化能力を高めると一般的に信じられている。
本稿では、経験的および理論的分析を通して、この見解に挑戦する。
論文 参考訳(メタデータ) (2023-07-18T01:53:18Z) - On Conditional and Compositional Language Model Differentiable Prompting [75.76546041094436]
プロンプトは、下流タスクでうまく機能するために、凍結した事前訓練言語モデル(PLM)を適応するための効果的な方法であることが示されている。
タスク命令や入力メタデータを連続的なプロンプトに変換することを学習する新しいモデル Prompt Production System (PRopS) を提案する。
論文 参考訳(メタデータ) (2023-07-04T02:47:42Z) - Improving Meta-learning for Low-resource Text Classification and
Generation via Memory Imitation [87.98063273826702]
本稿では,メモリ模倣メタラーニング(MemIML)手法を提案する。
本手法の有効性を証明するために理論的解析を行った。
論文 参考訳(メタデータ) (2022-03-22T12:41:55Z) - SUPERB-SG: Enhanced Speech processing Universal PERformance Benchmark
for Semantic and Generative Capabilities [76.97949110580703]
各種音声タスクの事前学習モデルを評価するための新しいベンチマークであるSUPERB-SGを紹介する。
データドメインのシフトの下で、事前訓練されたモデルによって学習された表現の堅牢性をテストするために、軽量な方法論を使用します。
また,SUPERB-SGのタスク多様性とタスク監督の限定が,モデル表現の一般化性を評価する効果的な方法であることを示す。
論文 参考訳(メタデータ) (2022-03-14T04:26:40Z) - Variable-Shot Adaptation for Online Meta-Learning [123.47725004094472]
従来のタスクから静的データにまたがるメタラーニングによって,少数の固定された例から新しいタスクを学習する問題について検討する。
メタラーニングは,従来の教師付き手法に比べて,ラベルの総数が少なく,累積性能も高いタスクセットを解く。
これらの結果から,メタラーニングは,一連の問題を継続的に学習し,改善する学習システムを構築する上で重要な要素であることが示唆された。
論文 参考訳(メタデータ) (2020-12-14T18:05:24Z) - Learning from Task Descriptions [24.588252048132862]
本稿では,NLPシステム構築のためのフレームワークについて紹介する。
タスク指向評価のために構築された、新しい英語データセットであるZESTを用いて、このフレームワークをインスタンス化する。
現状のT5モデルはZESTで12%のスコアを獲得し、NLP研究者にとって大きな課題を残している。
論文 参考訳(メタデータ) (2020-11-16T17:25:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。