論文の概要: Pruning Pretrained Encoders with a Multitask Objective
- arxiv url: http://arxiv.org/abs/2112.05705v1
- Date: Fri, 10 Dec 2021 17:57:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-13 14:11:31.318052
- Title: Pruning Pretrained Encoders with a Multitask Objective
- Title(参考訳): マルチタスクオブジェクトによる事前学習エンコーダのプルーニング
- Authors: Patrick Xia, Richard Shin
- Abstract要約: シングルタスクモデルのベストアンサンブルに対して,マルチタスクの目的と単一モデルのプルーニングを比較した。
さらなる分析により、マルチタスクの目的をプルーニング中に使用することは、低リソースタスクのモデルサイズの削減に有効な方法であることがわかった。
- 参考スコア(独自算出の注目度): 12.062758391661847
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The sizes of pretrained language models make them challenging and expensive
to use when there are multiple desired downstream tasks. In this work, we adopt
recent strategies for model pruning during finetuning to explore the question
of whether it is possible to prune a single encoder so that it can be used for
multiple tasks. We allocate a fixed parameter budget and compare pruning a
single model with a multitask objective against the best ensemble of
single-task models. We find that under two pruning strategies (element-wise and
rank pruning), the approach with the multitask objective outperforms training
models separately when averaged across all tasks, and it is competitive on each
individual one. Additional analysis finds that using a multitask objective
during pruning can also be an effective method for reducing model sizes for
low-resource tasks.
- Abstract(参考訳): 事前訓練された言語モデルのサイズは、複数のダウンストリームタスクが必要な場合に使用が難しく、費用がかかる。
本研究では,マルチタスクに使用できるように,単一エンコーダをプルーピングできるかどうかという問題を探究するために,微調整中のモデルプルーニングに関する最近の戦略を採用する。
固定パラメータ予算を割り当て、単一モデルの最適アンサンブルに対して、マルチタスクの目的と1つのモデルのプルーニングを比較した。
2つのプルーニング戦略(要素的およびランク的プルーニング)の下では、マルチタスク目的によるアプローチは、すべてのタスクの平均化時に個別にトレーニングモデルより優れており、各タスクに対して競合する。
さらなる分析により、プルーニング中にマルチタスクの目的物を使うことは、低リソースタスクのモデルサイズを減らす効果的な方法であることがわかった。
関連論文リスト
- One-Shot Pruning for Fast-adapting Pre-trained Models on Devices [28.696989086706186]
大規模な事前訓練モデルが下流タスクの解決に成功している。
これらのモデルを低機能デバイスにデプロイするには、モデルプルーニングのような効果的なアプローチが必要である。
そこで本研究では,類似タスクの抽出知識を活用して,事前学習したモデルからサブネットワークを抽出する,スケーラブルなワンショットプルーニング手法を提案する。
論文 参考訳(メタデータ) (2023-07-10T06:44:47Z) - Voting from Nearest Tasks: Meta-Vote Pruning of Pre-trained Models for
Downstream Tasks [55.431048995662714]
我々は、類似タスクの刈り取られたモデルから、新しいタスクのための小さなモデルを作成する。
このモデルに関するいくつかの微調整ステップは、新しいタスクに対して有望なプルーンドモデルを生成するのに十分であることを示す。
我々は, 単純だが効果的な'Meta-Vote Pruning (MVP)' 手法を開発した。
論文 参考訳(メタデータ) (2023-01-27T06:49:47Z) - OFASys: A Multi-Modal Multi-Task Learning System for Building Generalist
Models [72.8156832931841]
ジェネリストモデルは、単一のモデル内でタスクに依存しない方法で多様なマルチモーダルタスクを実行することができる。
マルチモーダル命令と呼ばれる宣言型タスクインタフェース上に構築された汎用モデル学習システムOFASysをリリースする。
論文 参考訳(メタデータ) (2022-12-08T17:07:09Z) - DiSparse: Disentangled Sparsification for Multitask Model Compression [92.84435347164435]
DiSparseは、シンプルで効果的で、第一級のマルチタスクプルーニングとスパーストレーニングスキームである。
実験の結果,様々な設定や設定において優れた性能を示した。
論文 参考訳(メタデータ) (2022-06-09T17:57:46Z) - Task Adaptive Parameter Sharing for Multi-Task Learning [114.80350786535952]
Adaptive Task Adapting Sharing(TAPS)は、階層の小さなタスク固有のサブセットを適応的に修正することで、ベースモデルを新しいタスクにチューニングする手法である。
他の手法と比較して、TAPSはダウンストリームタスクに対して高い精度を維持し、タスク固有のパラメータは少ない。
我々は,タスクやアーキテクチャ(ResNet,DenseNet,ViT)を微調整して評価し,実装が簡単でありながら最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-03-30T23:16:07Z) - Rethinking Hard-Parameter Sharing in Multi-Task Learning [20.792654758645302]
マルチタスク学習(MTL)におけるハードパラメータ共有により、タスクはモデルのパラメータの一部を共有でき、ストレージコストを低減し、予測精度を向上させることができる。
共通の共有プラクティスは、タスク毎に別々のトップレイヤを使用しながら、タスク間でディープニューラルネットワークのボトムレイヤを共有することだ。
異なるボトム層パラメータを使用することで、一般的なプラクティスよりも大幅にパフォーマンスが向上する可能性がある。
論文 参考訳(メタデータ) (2021-07-23T17:26:40Z) - Small Towers Make Big Differences [59.243296878666285]
マルチタスク学習は、複数の機械学習タスクを同時に解決することを目的としている。
マルチタスク学習問題に対する優れた解法は、Paretoの最適性に加えて一般化可能であるべきである。
本稿では,マルチタスクモデルのためのパラメータ下自己助詞の手法を提案し,両世界のベストを達成した。
論文 参考訳(メタデータ) (2020-08-13T10:45:31Z) - Low Resource Multi-Task Sequence Tagging -- Revisiting Dynamic
Conditional Random Fields [67.51177964010967]
異なるタスクに対するラベルシーケンス間の依存関係を利用する低リソースマルチタスクシーケンスタグの異なるモデルを比較した。
タスク予測間の相互依存性の明示的モデリングは、通常のマルチタスクモデルと同様にシングルタスクよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-01T07:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。