論文の概要: Compressing Transformer-Based Semantic Parsing Models using
Compositional Code Embeddings
- arxiv url: http://arxiv.org/abs/2010.05002v1
- Date: Sat, 10 Oct 2020 13:47:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 23:12:45.444010
- Title: Compressing Transformer-Based Semantic Parsing Models using
Compositional Code Embeddings
- Title(参考訳): 合成コード埋め込みを用いた変圧器に基づく意味構文解析モデル
- Authors: Prafull Prakash, Saurabh Kumar Shashidhar, Wenlong Zhao, Subendhu
Rongali, Haidar Khan, Michael Kayser
- Abstract要約: BERTベースとRoBERTaベースのサイズを大幅に削減するために,構成コード埋め込みを学習する。
95.15% 98.46% の圧縮率と20.47% 34.22% のエンコーダ圧縮率を観測し、97.5% 以上の意味解析性能を維持した。
- 参考スコア(独自算出の注目度): 4.6576490642289485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The current state-of-the-art task-oriented semantic parsing models use BERT
or RoBERTa as pretrained encoders; these models have huge memory footprints.
This poses a challenge to their deployment for voice assistants such as Amazon
Alexa and Google Assistant on edge devices with limited memory budgets. We
propose to learn compositional code embeddings to greatly reduce the sizes of
BERT-base and RoBERTa-base. We also apply the technique to DistilBERT,
ALBERT-base, and ALBERT-large, three already compressed BERT variants which
attain similar state-of-the-art performances on semantic parsing with much
smaller model sizes. We observe 95.15% ~ 98.46% embedding compression rates and
20.47% ~ 34.22% encoder compression rates, while preserving greater than 97.5%
semantic parsing performances. We provide the recipe for training and analyze
the trade-off between code embedding sizes and downstream performances.
- Abstract(参考訳): 現在の最先端のタスク指向セマンティックパーシングモデルでは、BERTやRoBERTaをトレーニング済みエンコーダとして使用しています。
これは、限られたメモリ予算を持つエッジデバイス上でAmazon AlexaやGoogle Assistantなどの音声アシスタントをデプロイする上での課題である。
本稿では,BERTベースとRoBERTaベースのサイズを大幅に削減するために,合成コード埋め込みの学習を提案する。
DistilBERT, ALBERT-base, ALBERT-large, 既に圧縮されたBERTの3つの変種に対して, モデルサイズがはるかに小さいセマンティック解析において, 同様の性能を実現する。
95.15%~98.46%の埋め込み圧縮率と20.47%~34.22%のエンコーダ圧縮率を観測し、97.5%以上の意味解析性能を維持した。
コード埋め込みサイズと下流のパフォーマンスのトレードオフをトレーニングし分析するためのレシピを提供する。
関連論文リスト
- oBERTa: Improving Sparse Transfer Learning via improved initialization,
distillation, and pruning regimes [82.99830498937729]
oBERTaは自然言語処理のための使いやすい言語モデルのセットです。
NLPの実践者はモデル圧縮の専門知識なしで3.8倍から24.3倍の高速モデルを得ることができる。
代表的な7つのNLPタスクにおけるoBERTaの利用について検討する。
論文 参考訳(メタデータ) (2023-03-30T01:37:19Z) - LightHuBERT: Lightweight and Configurable Speech Representation Learning
with Once-for-All Hidden-Unit BERT [69.77358429702873]
本稿では,一度限りのTransformer圧縮フレームワークであるLightHuBERTを提案する。
自動音声認識(ASR)とSUPERBベンチマークの実験は、提案されたLightHuBERTが109ドル以上のアーキテクチャを実現することを示している。
LightHuBERTは、ほとんどのタスクにおいて、29%のパラメータを削減して、教師モデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-29T14:20:55Z) - The Optimal BERT Surgeon: Scalable and Accurate Second-Order Pruning for
Large Language Models [23.12519490211362]
本稿では,BERTモデルの文脈における非構造重み打ちの精度圧縮トレードオフについて検討する。
近似2次情報に基づく効率的かつ正確な重量刈り法であるO-BERT-S(Optimal BERT Surgeon)を提案する。
本研究では,トランスフォーマーモデルに対する圧縮手法の複合化において,このプルーニング法が与える影響について検討する。
論文 参考訳(メタデータ) (2022-03-14T16:40:31Z) - Prune Once for All: Sparse Pre-Trained Language Models [0.6063525456640462]
そこで本研究では,ウェイトプルーニングとモデル蒸留を統合したスパース事前訓練型トランスフォーマー言語モデルの学習手法を提案する。
これらのスパース事前学習モデルは、疎度パターンを維持しながら、幅広いタスクの学習を伝達するために使用することができる。
圧縮されたスパース事前学習モデルが、その知識を、最小限の精度で5つの下流自然言語タスクに伝達する方法を示す。
論文 参考訳(メタデータ) (2021-11-10T15:52:40Z) - You Only Compress Once: Towards Effective and Elastic BERT Compression
via Exploit-Explore Stochastic Nature Gradient [88.58536093633167]
既存のモデル圧縮アプローチでは、さまざまなハードウェアデプロイメントに対応するために、さまざまな制約にまたがる再圧縮や微調整が必要となる。
圧縮を一度行い、至るところに展開するための新しいアプローチであるYOCO-BERTを提案する。
最先端のアルゴリズムと比較すると、YOCO-BERTはよりコンパクトなモデルを提供するが、GLUEベンチマークの平均精度は2.1%-4.5%向上している。
論文 参考訳(メタデータ) (2021-06-04T12:17:44Z) - ROSITA: Refined BERT cOmpreSsion with InTegrAted techniques [10.983311133796745]
BERTファミリーの事前訓練された言語モデルは、幅広いNLPタスクで最先端のものを定義しています。
BERTベースのモデルの性能は、主に大量のパラメータによって駆動され、リソース制限されたシナリオへの適用を妨げる。
我々は,3種類の圧縮手法(重み付きプルーニング,低ランク分解,知識蒸留)を導入し,モデルアーキテクチャに関する様々な設計について検討する。
Refined BERT cOmpreSsion with InTegrAted Technique(ROSITA)と呼ばれる私たちの最高の圧縮モデルは、7.5倍小さいです。
論文 参考訳(メタデータ) (2021-03-21T11:33:33Z) - DeeBERT: Dynamic Early Exiting for Accelerating BERT Inference [69.93692147242284]
BERTのような大規模事前訓練型言語モデルは、NLPアプリケーションに大幅な改善をもたらした。
本稿では, BERT推論を高速化するために, 単純だが効果的な手法であるDeeBERTを提案する。
実験の結果、DeeBERTはモデル品質の低下を最小限に抑えながら、最大40%の推論時間を節約できることがわかった。
論文 参考訳(メタデータ) (2020-04-27T17:58:05Z) - DynaBERT: Dynamic BERT with Adaptive Width and Depth [55.18269622415814]
我々は新しい動的BERTモデル(DynaBERTと略される)を提案する。
適応的な幅と深さを選択することで、サイズとレイテンシを柔軟に調整できる。
既存のBERT圧縮手法よりずっと優れています。
論文 参考訳(メタデータ) (2020-04-08T15:06:28Z) - AdaBERT: Task-Adaptive BERT Compression with Differentiable Neural
Architecture Search [79.98686989604164]
既存の方法では、BERTを小さなモデルに圧縮するが、そのような圧縮はタスクに依存しない。
本稿では,タスク適応型小型モデルにBERTを自動的に圧縮する,可変ニューラルアーキテクチャ探索を利用した新しい圧縮手法AdaBERTを提案する。
我々は,複数のNLPタスクに対してAdaBERTを評価し,これらのタスク適応型圧縮モデルが推定時間でBERTよりも12.7倍から29.3倍速く,パラメータサイズで11.5倍から17.0倍小さいことを示す。
論文 参考訳(メタデータ) (2020-01-13T14:03:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。