論文の概要: Learning Easily Updated General Purpose Text Representations with
Adaptable Task-Specific Prefixes
- arxiv url: http://arxiv.org/abs/2305.13499v2
- Date: Sat, 14 Oct 2023 15:35:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 05:09:44.600022
- Title: Learning Easily Updated General Purpose Text Representations with
Adaptable Task-Specific Prefixes
- Title(参考訳): 適応型タスク特化プレフィックスを用いた汎用テキスト表現の学習
- Authors: Kuan-Hao Huang, Liang Tan, Rui Hou, Sinong Wang, Amjad Almahairi, Ruty
Rinott
- Abstract要約: ダウンストリームタスク毎にトレーニング済みの大きな言語モデルを微調整すると、計算負荷が発生する。
そこで本研究では,ソースタスクを用いてテキストの固定表現を学習するためのプレフィックスベースの手法を提案する。
- 参考スコア(独自算出の注目度): 22.661527526471996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many real-world applications require making multiple predictions from the
same text. Fine-tuning a large pre-trained language model for each downstream
task causes computational burdens in the inference time due to several times of
forward passes. To amortize the computational cost, freezing the language model
and building lightweight models for downstream tasks based on fixed text
representations are common solutions. Accordingly, how to learn fixed but
general text representations that can generalize well to unseen downstream
tasks becomes a challenge. Previous works have shown that the generalizability
of representations can be improved by fine-tuning the pre-trained language
model with some source tasks in a multi-tasking way. In this work, we propose a
prefix-based method to learn the fixed text representations with source tasks.
We learn a task-specific prefix for each source task independently and combine
them to get the final representations. Our experimental results show that
prefix-based training performs better than multi-tasking training and can
update the text representations at a smaller computational cost than
multi-tasking training.
- Abstract(参考訳): 多くの現実世界のアプリケーションは、同じテキストから複数の予測を行う必要がある。
下流タスク毎に大きな事前学習された言語モデルを微調整することは、数回の前方パスによる推論時間の計算負荷を引き起こす。
計算コストを節約するためには、言語モデルを凍結し、固定テキスト表現に基づく下流タスクのための軽量モデルを構築することが一般的である。
したがって、ダウンストリームタスクをうまく一般化できる固定だが一般的なテキスト表現をどのように学ぶかが課題となる。
従来の研究では、事前学習された言語モデルを複数のタスクをマルチタスクで微調整することで、表現の一般化性を向上させることが示されている。
本研究では,ソースタスクで固定されたテキスト表現を学習するためのプレフィックスベース手法を提案する。
各ソースタスクに対して個別にタスク固有のプレフィックスを学び、それらを組み合わせて最終的な表現を得る。
実験の結果,プレフィックスベーストレーニングはマルチタスクトレーニングよりも優れており,マルチタスクトレーニングよりも少ない計算コストでテキスト表現を更新できることがわかった。
関連論文リスト
- Multi-Task Learning for Front-End Text Processing in TTS [15.62497569424995]
テキストから音声のフロントエンドで一般的に解決される3つのタスクを共同で実行するためのマルチタスク学習(MTL)モデルを提案する。
我々のフレームワークは、共有表現を学習するトランクを持つ木のような構造を利用し、その後にタスク固有ヘッドを分離する。
論文 参考訳(メタデータ) (2024-01-12T02:13:21Z) - Grad2Task: Improved Few-shot Text Classification Using Gradients for
Task Representation [24.488427641442694]
本稿では,数ショットのテキスト分類のための条件付きニューラルプロセスに基づく新しいアプローチを提案する。
私たちのキーとなるアイデアは、ベースモデルからの勾配情報を使って各タスクを表現することです。
我々のアプローチは、従来の微調整、シーケンシャルトランスファーラーニング、そして最先端のメタラーニングアプローチよりも優れています。
論文 参考訳(メタデータ) (2022-01-27T15:29:30Z) - Unified Multimodal Pre-training and Prompt-based Tuning for
Vision-Language Understanding and Generation [86.26522210882699]
視覚言語理解と生成のための統一型マルチモーダル事前学習を提案する。
提案したUniVLは、理解タスクと生成タスクの両方を扱うことができる。
実験の結果,同じモデルを用いた場合,理解タスクと生成タスクとの間にはトレードオフがあることが判明した。
論文 参考訳(メタデータ) (2021-12-10T14:59:06Z) - Multitask Prompted Training Enables Zero-Shot Task Generalization [70.12770442071657]
本研究では,一般的な自然言語タスクを人間に読まれる入力形式にマッピングするシステムを開発した。
様々なタスクをカバーしたマルチタスクミックス上に,事前学習したエンコーダ・デコーダモデルを微調整する。
このモデルは、いくつかの標準データセット上で強力なゼロショット性能を達成し、しばしば16倍のサイズのモデルより優れている。
論文 参考訳(メタデータ) (2021-10-15T17:08:57Z) - VLM: Task-agnostic Video-Language Model Pre-training for Video
Understanding [78.28397557433544]
本稿では,タスクに依存しないマルチモーダル事前学習手法を提案する。
実験の結果,従来の手法よりも広い範囲のタスクに対して強い性能を示し,タスク固有の事前学習よりも優れていた。
論文 参考訳(メタデータ) (2021-05-20T19:13:27Z) - Temporally Correlated Task Scheduling for Sequence Learning [143.70523777803723]
多くのアプリケーションにおいて、シーケンス学習タスクは通常、複数の時間的に相関した補助タスクと関連付けられている。
シーケンス学習に学習可能なスケジューラを導入し、トレーニングのための補助的なタスクを適応的に選択できる。
本手法は,同時翻訳とストックトレンド予測の性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-07-10T10:28:54Z) - Pre-training via Paraphrasing [96.79972492585112]
教師なし多言語パラフレージング目的を用いて学習した,事前学習されたシーケンス・ツー・シーケンスモデルであるMARGEを紹介する。
ランダムな初期化のみを前提として,検索と再構築を共同で行うことができることを示す。
例えば、追加のタスク固有のトレーニングがなければ、文書翻訳のBLEUスコアは最大35.8に達する。
論文 参考訳(メタデータ) (2020-06-26T14:43:43Z) - General Purpose Text Embeddings from Pre-trained Language Models for
Scalable Inference [34.47592026375839]
我々は,共用テキストエンコーダを用いて,推論中の計算コストの一部を異なるタスクで償却可能であることを示す。
また、このようなエンコーダをトレーニングするためのアプローチを比較し、複数のタスクで事前訓練されたエンコーダが、見当たらないタスクによく当てはまることを示す。
論文 参考訳(メタデータ) (2020-04-29T16:11:26Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。