論文の概要: ZeroPrompt: Scaling Prompt-Based Pretraining to 1,000 Tasks Improves
Zero-Shot Generalization
- arxiv url: http://arxiv.org/abs/2201.06910v1
- Date: Tue, 18 Jan 2022 12:30:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 13:45:03.878838
- Title: ZeroPrompt: Scaling Prompt-Based Pretraining to 1,000 Tasks Improves
Zero-Shot Generalization
- Title(参考訳): ZeroPrompt: ゼロショットの一般化を改善する1000タスクへのプロンプトベースの事前トレーニング
- Authors: Hanwei Xu, Yujun Chen, Yulun Du, Nan Shao, Yanggang Wang, Haiyu Li,
Zhilin Yang
- Abstract要約: タスクスケーリングとゼロショットプロンプトに着目し,ゼロショット一般化のためのZeroPromptを提案する。
FLOPでは,タスクスケーリングによってトレーニング効率が30倍向上することを示す。
また、遺伝的アルゴリズムを組み込んだプロンプト手法を提案し、未知のタスクに対して最適なプロンプトを自動検索する。
- 参考スコア(独自算出の注目度): 15.28478657477945
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a multitask pretraining approach ZeroPrompt for zero-shot
generalization, focusing on task scaling and zero-shot prompting. While
previous models are trained on only a few dozen tasks, we scale to 1,000 tasks
for the first time using real-world data. This leads to a crucial discovery
that task scaling can be an efficient alternative to model scaling; i.e., the
model size has little impact on performance with an extremely large number of
tasks. Our results show that task scaling can substantially improve training
efficiency by 30 times in FLOPs. Moreover, we present a prompting method that
incorporates a genetic algorithm to automatically search for the best prompt
for unseen tasks, along with a few other improvements. Empirically, ZeroPrompt
substantially improves both the efficiency and the performance of zero-shot
learning across a variety of academic and production datasets.
- Abstract(参考訳): タスクスケーリングとゼロショットプロンプトに着目し,ゼロショット一般化のためのマルチタスク事前学習手法ZeroPromptを提案する。
以前のモデルはわずか数十タスクでトレーニングされていますが、実際のデータを使って初めて1000タスクにスケールします。
これは、タスクのスケーリングがモデルスケーリングの効率的な代替になり得るという重要な発見に繋がる。
その結果,タスクスケーリングはFLOPの30倍のトレーニング効率を向上できることがわかった。
さらに,遺伝的アルゴリズムを組み込んだプロンプト手法を提案し,未発見のタスクに対して最適なプロンプトを自動的に検索する。
実証的には、ZeroPromptは、さまざまな学術的および生産的データセットにわたるゼロショット学習の効率性とパフォーマンスを大幅に改善する。
関連論文リスト
- Data-CUBE: Data Curriculum for Instruction-based Sentence Representation
Learning [85.66907881270785]
本稿では,学習用マルチタスクデータの順序を列挙するデータカリキュラム,すなわちData-CUBEを提案する。
タスクレベルでは、タスク間の干渉リスクを最小化するために最適なタスクオーダーを見つけることを目的としている。
インスタンスレベルでは、タスク毎のすべてのインスタンスの難易度を測定し、トレーニングのためにそれらを簡単に微分できるミニバッチに分割します。
論文 参考訳(メタデータ) (2024-01-07T18:12:20Z) - STG-MTL: Scalable Task Grouping for Multi-Task Learning Using Data Map [4.263847576433289]
MTL(Multi-Task Learning)は、従来のSTL(Single-Task Learning)よりも性能が向上し、普及した強力な技術である。
しかし、MTLは指数的なタスクグルーピング数が多いため、しばしば困難である。
本稿では,これらの課題に対処し,課題分類のためのスケーラブルでモジュール化されたソリューションを提供する新しいデータ駆動手法を提案する。
論文 参考訳(メタデータ) (2023-07-07T03:54:26Z) - Reinforcement Learning with Success Induced Task Prioritization [68.8204255655161]
本稿では,自動カリキュラム学習のためのフレームワークであるSuccess induced Task Prioritization (SITP)を紹介する。
アルゴリズムはエージェントに最速の学習を提供するタスクの順序を選択する。
我々は,SITPが他のカリキュラム設計手法と一致するか,あるいは上回っていることを実証する。
論文 参考訳(メタデータ) (2022-12-30T12:32:43Z) - An Evolutionary Approach to Dynamic Introduction of Tasks in Large-scale
Multitask Learning Systems [4.675744559395732]
マルチタスク学習は、複数のタスクから学習できるモデルが知識伝達によってより良い品質と効率を達成すると仮定する。
最先端のMLモデルは、タスクごとに高いカスタマイズに依存し、タスクの数をスケールするのではなく、サイズとデータスケールを活用する。
本稿では,大規模マルチタスクモデルを生成でき,新しいタスクの動的かつ連続的な追加を支援する進化的手法を提案する。
論文 参考訳(メタデータ) (2022-05-25T13:10:47Z) - SUPERB-SG: Enhanced Speech processing Universal PERformance Benchmark
for Semantic and Generative Capabilities [76.97949110580703]
各種音声タスクの事前学習モデルを評価するための新しいベンチマークであるSUPERB-SGを紹介する。
データドメインのシフトの下で、事前訓練されたモデルによって学習された表現の堅牢性をテストするために、軽量な方法論を使用します。
また,SUPERB-SGのタスク多様性とタスク監督の限定が,モデル表現の一般化性を評価する効果的な方法であることを示す。
論文 参考訳(メタデータ) (2022-03-14T04:26:40Z) - SPoT: Better Frozen Model Adaptation through Soft Prompt Transfer [7.2462572989580405]
本稿では,SPoT: Soft Prompt Transferと呼ばれる新しいプロンプトベーストランスファー学習手法を提案する。
SPoTは多くのタスクでPromptTuningの性能を大幅に向上させることを示す。
また,26のNLPタスクと160のソース・ターゲットタスクを組み合わせたタスク転送性についても大規模に検討した。
論文 参考訳(メタデータ) (2021-10-15T07:35:58Z) - Efficiently Identifying Task Groupings for Multi-Task Learning [55.80489920205404]
マルチタスク学習は、あるタスクによって学習された情報を活用して、他のタスクのトレーニングに役立てることができる。
マルチタスク学習モデルにおいて、どのタスクを一緒にトレーニングすべきかを選択するアプローチを提案する。
本手法は,全タスクを協調学習し,タスクの勾配が他のタスクの損失に影響を及ぼす影響を定量化する。
論文 参考訳(メタデータ) (2021-09-10T02:01:43Z) - Rectification-based Knowledge Retention for Continual Learning [49.1447478254131]
ディープラーニングモデルは、インクリメンタルな学習環境で訓練されたときに壊滅的な忘れに苦しむ。
タスクインクリメンタル学習問題に対処するための新しいアプローチを提案する。これは、インクリメンタルに到着する新しいタスクに関するモデルをトレーニングすることを含む。
私たちのアプローチは、ゼロショットと非ゼロショットタスクインクリメンタルラーニング設定の両方で使用できます。
論文 参考訳(メタデータ) (2021-03-30T18:11:30Z) - Efficient Feature Transformations for Discriminative and Generative
Continual Learning [98.10425163678082]
継続的学習のための簡易タスク特化機能マップ変換戦略を提案する。
これらは新しいタスクを学習するための強力な柔軟性を提供し、ベースアーキテクチャに最小パラメータを追加することで実現される。
本手法の有効性と効率を,判別(cifar-100およびimagenet-1k)および生成的タスクの一連の実験を用いて実証する。
論文 参考訳(メタデータ) (2021-03-25T01:48:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。