論文の概要: All Birds with One Stone: Multi-task Text Classification for Efficient
Inference with One Forward Pass
- arxiv url: http://arxiv.org/abs/2205.10744v1
- Date: Sun, 22 May 2022 05:16:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 15:09:59.920394
- Title: All Birds with One Stone: Multi-task Text Classification for Efficient
Inference with One Forward Pass
- Title(参考訳): 1本の石を持つ全鳥:1本の前方通過による効率的な推論のためのマルチタスクテキスト分類
- Authors: Jiaxin Huang, Tianqi Liu, Jialu Liu, Adam D. Lelkes, Cong Yu, Jiawei
Han
- Abstract要約: Webコンテンツ分類では、Web記事のような同じ入力テキストから複数の分類タスクを予測する。
既存のマルチタスクトランスモデルは、O(N)コストでNタスクに対してNフォワードパスを実行する必要がある。
本稿では,O(1)計算コストを1つのフォワードパスのみに設定することで,高い性能を実現するスケーラブルな手法を提案する。
- 参考スコア(独自算出の注目度): 34.85886030306857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-Task Learning (MTL) models have shown their robustness, effectiveness,
and efficiency for transferring learned knowledge across tasks. In real
industrial applications such as web content classification, multiple
classification tasks are predicted from the same input text such as a web
article. However, at the serving time, the existing multitask transformer
models such as prompt or adaptor based approaches need to conduct N forward
passes for N tasks with O(N) computation cost. To tackle this problem, we
propose a scalable method that can achieve stronger performance with close to
O(1) computation cost via only one forward pass. To illustrate real application
usage, we release a multitask dataset on news topic and style classification.
Our experiments show that our proposed method outperforms strong baselines on
both the GLUE benchmark and our news dataset. Our code and dataset are publicly
available at https://bit.ly/mtop-code.
- Abstract(参考訳): マルチタスク学習(MTL)モデルは、タスク間で学習知識を伝達するための堅牢性、有効性、効率性を示している。
Webコンテンツ分類のような実際の産業アプリケーションでは、Web記事のような同じ入力テキストから複数の分類タスクが予測される。
しかし、サービス時には、プロンプトやアダプタベースのアプローチのような既存のマルチタスクトランスフォーマーモデルは、O(N)計算コストでNタスクに対してNフォワードパスを実行する必要がある。
そこで本研究では,1回のフォワードパスでo(1)に近い計算コストで,より強力な性能を実現するスケーラブルな手法を提案する。
実際のアプリケーション利用を説明するために、ニューストピックとスタイル分類に関するマルチタスクデータセットをリリースする。
実験の結果,提案手法はGLUEベンチマークとニュースデータセットの両方において,高いベースラインを達成できた。
私たちのコードとデータセットはhttps://bit.ly/mtop-codeで公開されています。
関連論文リスト
- Residual Multi-Task Learner for Applied Ranking [11.774841918446137]
ResFlowは、効率的なクロスタスク情報共有を可能にする軽量なマルチタスク学習フレームワークである。
Shopee Searchのプレランクモジュールに完全にデプロイされている。
論文 参考訳(メタデータ) (2024-10-30T06:49:45Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - TransPrompt v2: A Transferable Prompting Framework for Cross-task Text
Classification [37.824031151922604]
そこで本研究では,テキスト分類タスク間の数ショット学習を実現するための,トランスプロンプトv2を提案する。
類似したタスクを学習するために、メタラーナーを訓練するためにマルチタスクメタ知識獲得(MMA)手順を用いる。
遠隔タスクを学習するために、タスクタイプ記述をプロンプトに注入し、タイプ内およびタイプ間プロンプト埋め込みをキャプチャする。
論文 参考訳(メタデータ) (2023-08-29T04:16:57Z) - Multitask Prompt Tuning Enables Parameter-Efficient Transfer Learning [43.639430661322585]
マルチタスク・プロンプト・チューニング(MPT)を提案する。
MPTは複数のタスク固有のソースプロンプトから知識を抽出することで単一の転送可能なプロンプトを学習する。
次に、この共有プロンプトに対する乗算的低ランク更新を学習し、各下流ターゲットタスクに効率よく適応する。
論文 参考訳(メタデータ) (2023-03-06T03:25:59Z) - Improving Cross-task Generalization of Unified Table-to-text Models with
Compositional Task Configurations [63.04466647849211]
メソッドは通常、タスク情報をエンコーダのプレフィックスとして単純なデータセット名でエンコードする。
本稿では,エンコーダがタスク間の一般化を改善するためのプロンプトセットであるコンポジションタスク構成を提案する。
これは、モデルがトレーニング中に異なるタスク間で共有知識をより良く学習できるだけでなく、新しい構成を構築することでモデルを制御できることを示している。
論文 参考訳(メタデータ) (2022-12-17T02:20:14Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - Training Data is More Valuable than You Think: A Simple and Effective
Method by Retrieving from Training Data [82.92758444543689]
検索に基づく手法は,外部知識を導入してNLPタスクに有効であることが示されている。
意外なことに、Retrieving from the training datA (REINA) は複数のNLGおよびNLUタスクにおいて大きな改善をもたらすことが判明した。
実験結果から,本手法は様々なNLUタスクやNLGタスクにおいて,大幅な性能向上が期待できることがわかった。
論文 参考訳(メタデータ) (2022-03-16T17:37:27Z) - Active Multi-Task Representation Learning [50.13453053304159]
本研究は,アクティブラーニングの手法を活用することで,資源タスクのサンプリングに関する最初の公式な研究を行う。
提案手法は, 対象タスクに対する各ソースタスクの関連性を反復的に推定し, その関連性に基づいて各ソースタスクからサンプルを抽出するアルゴリズムである。
論文 参考訳(メタデータ) (2022-02-02T08:23:24Z) - Conditionally Adaptive Multi-Task Learning: Improving Transfer Learning
in NLP Using Fewer Parameters & Less Data [5.689320790746046]
マルチタスク学習(MTL)ネットワークは、異なるタスク間で学習知識を伝達するための有望な方法として登場した。
しかし、MTLは、低リソースタスクへの過度な適合、破滅的な忘れ込み、負のタスク転送といった課題に対処しなければならない。
本稿では,新しい条件付アテンション機構とタスク条件付きモジュール群からなるトランスフォーマーアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-19T02:04:34Z) - HyperGrid: Efficient Multi-Task Transformers with Grid-wise Decomposable
Hyper Projections [96.64246471034195]
我々は,マルチタスク学習を効果的に行う新しいアプローチであるtextscHyperGridを提案する。
本手法は,微調整とマルチタスク学習のギャップを埋めるのに役立つ。
論文 参考訳(メタデータ) (2020-07-12T02:49:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。