論文の概要: TextPruner: A Model Pruning Toolkit for Pre-Trained Language Models
- arxiv url: http://arxiv.org/abs/2203.15996v1
- Date: Wed, 30 Mar 2022 02:10:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 14:43:33.097763
- Title: TextPruner: A Model Pruning Toolkit for Pre-Trained Language Models
- Title(参考訳): TextPruner: 事前学習言語モデルのためのモデル解析ツールキット
- Authors: Ziqing Yang, Yiming Cui, Zhigang Chen
- Abstract要約: 我々は、事前訓練された言語モデルのためのオープンソースのモデルプルーニングツールキットであるTextPrunerを紹介する。
TextPrunerは、ボキャブラリプルーニングやトランスフォーマープルーニングなどの構造化後プルーニング方法を提供する。
いくつかのNLPタスクによる実験では、モデルを再トレーニングすることなく、TextPrunerがモデルサイズを縮小できることを示した。
- 参考スコア(独自算出の注目度): 18.49325959450621
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pre-trained language models have been prevailed in natural language
processing and become the backbones of many NLP tasks, but the demands for
computational resources have limited their applications. In this paper, we
introduce TextPruner, an open-source model pruning toolkit designed for
pre-trained language models, targeting fast and easy model compression.
TextPruner offers structured post-training pruning methods, including
vocabulary pruning and transformer pruning, and can be applied to various
models and tasks. We also propose a self-supervised pruning method that can be
applied without the labeled data. Our experiments with several NLP tasks
demonstrate the ability of TextPruner to reduce the model size without
re-training the model.
- Abstract(参考訳): 事前訓練された言語モデルは自然言語処理において普及し、多くのNLPタスクのバックボーンとなっているが、計算資源の要求はアプリケーションに制限されている。
本稿では,事前学習型言語モデル用に設計されたオープンソースのモデル解析ツールキットであるTextPrunerについて紹介する。
TextPrunerは、ボキャブラリプルーニングやトランスフォーマープルーニングなど、構造化後プルーニングの手法を提供し、様々なモデルやタスクに適用できる。
また,ラベル付きデータなしで適用可能な自己教師付きプルーニング手法を提案する。
複数のnlpタスクを用いた実験により、textprunerがモデルを再トレーニングすることなく、モデルサイズを削減できることが示されました。
関連論文リスト
- Pre-Training to Learn in Context [138.0745138788142]
言語モデルが文脈で学習するために明示的に訓練されていないため、コンテキスト内学習の能力は十分に活用されていない。
In-Context Learning のための PICL (Pre-training for In-Context Learning) を提案する。
実験の結果,PICLはベースラインよりも効率が高く,タスクの汎用性が高く,約4倍のパラメータを持つ言語モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-05-16T03:38:06Z) - Language Model Pre-Training with Sparse Latent Typing [66.75786739499604]
そこで本研究では,多種多様な潜在型を持つ文レベルのキーワードを疎に抽出することのできる,事前学習対象Sparse Latent Typingを提案する。
実験結果から,本モデルは外部知識を使わずに,自己教師型で解釈可能な潜在型カテゴリを学習できることが示唆された。
論文 参考訳(メタデータ) (2022-10-23T00:37:08Z) - Few-shot Prompting Towards Controllable Response Generation [49.479958672988566]
まず,モデルのパラメータにアクセスすることなく,モデル生成に対するプロンプトと強化学習(RL)の組み合わせについて検討した。
マルチタスク学習を適用して、モデルが新しいタスクをより良く一般化できるようにします。
実験の結果,提案手法はパラメータにアクセスすることなく,複数のSOTA(State-of-the-art)対話モデルを制御することができることがわかった。
論文 参考訳(メタデータ) (2022-06-08T14:48:06Z) - Sparse*BERT: Sparse Models Generalize To New tasks and Domains [79.42527716035879]
本稿では, 階層的非構造的マグニチュード・プルーニング(Gradual Unstructured Magnitude Pruning)を用いて, ドメイン間およびタスク間を移動可能なモデルについて検討する。
Sparse*BERTは、非構造化バイオメディカルテキスト上で圧縮されたアーキテクチャを事前学習することで、SparseBioBERTとなることを示す。
論文 参考訳(メタデータ) (2022-05-25T02:51:12Z) - Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods
in Natural Language Processing [78.8500633981247]
本稿では,自然言語処理における新たなパラダイムにおける研究成果の探索と整理を行う。
入力xを取り込んで出力yをP(y|x)として予測するようにモデルを訓練する従来の教師付き学習とは異なり、プロンプトベースの学習は直接テキストの確率をモデル化する言語モデルに基づいている。
論文 参考訳(メタデータ) (2021-07-28T18:09:46Z) - Few-Shot Text Generation with Pattern-Exploiting Training [12.919486518128734]
本稿では,テキスト生成タスクにも基礎となるアイデアが適用可能であることを示す。
最近提案された少数のショットアプローチであるPattern-Exploiting Training(PET)を、テキスト生成タスクで生成言語モデルを微調整するために適用します。
論文 参考訳(メタデータ) (2020-12-22T10:53:07Z) - Introducing various Semantic Models for Amharic: Experimentation and
Evaluation with multiple Tasks and Datasets [19.855120632909124]
我々はAmharicの異なるセマンティックモデルを導入する。
モデルは word2Vec 埋め込み、分散シソーラス (DT)、コンテキスト埋め込み、DT 埋め込みを使って構築される。
新たに訓練されたモデルは、事前訓練された多言語モデルよりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2020-11-02T17:48:25Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。