論文の概要: Accelerating Pre-trained Language Models via Calibrated Cascade
- arxiv url: http://arxiv.org/abs/2012.14682v1
- Date: Tue, 29 Dec 2020 09:43:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 02:59:46.367433
- Title: Accelerating Pre-trained Language Models via Calibrated Cascade
- Title(参考訳): キャリブレーションカスケードによる事前学習言語モデルの高速化
- Authors: Lei Li, Yankai Lin, Shuhuai Ren, Deli Chen, Xuancheng Ren, Peng Li,
Jie Zhou, Xu Sun
- Abstract要約: 我々は,動的早期退避の動作機構を解析し,推論速度と性能のトレードオフを十分に達成できないことを確認した。
本稿では,キャスケード方式で適切なサイズの完全モデルを動的に選択するCascadeBERTを提案する。
- 参考スコア(独自算出の注目度): 37.00619245086208
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dynamic early exiting aims to accelerate pre-trained language models' (PLMs)
inference by exiting in shallow layer without passing through the entire model.
In this paper, we analyze the working mechanism of dynamic early exiting and
find it cannot achieve a satisfying trade-off between inference speed and
performance. On one hand, the PLMs' representations in shallow layers are not
sufficient for accurate prediction. One the other hand, the internal off-ramps
cannot provide reliable exiting decisions. To remedy this, we instead propose
CascadeBERT, which dynamically selects a proper-sized, complete model in a
cascading manner. To obtain more reliable model selection, we further devise a
difficulty-aware objective, encouraging the model output class probability to
reflect the real difficulty of each instance. Extensive experimental results
demonstrate the superiority of our proposal over strong baseline models of
PLMs' acceleration including both dynamic early exiting and knowledge
distillation methods.
- Abstract(参考訳): 動的早期退避は、モデル全体を通過することなく浅い層に退避することで、事前訓練された言語モデル(PLM)推論を加速することを目的としている。
本稿では,動的早期退避の動作機構を解析し,推論速度と性能のトレードオフを満足させることができないことを示す。
一方、浅い層におけるPLMの表現は正確な予測には不十分である。
一方、内部のオフランプは信頼できる終了決定を下すことができない。
そこで我々はカスケードBERTを提案する。CascadeBERTはカスケード方式で適切なサイズで完全なモデルを動的に選択する。
より信頼性の高いモデル選択を実現するため,モデルの出力クラス確率を各インスタンスの真の難易度を反映させる難易度認識目的を考案する。
大規模実験により, 動的早期排出法と知識蒸留法の両方を含む PLM 加速の強いベースラインモデルよりも, 提案手法が優れていることが示された。
関連論文リスト
- Advancing the Robustness of Large Language Models through Self-Denoised Smoothing [50.54276872204319]
大規模言語モデル(LLM)は大きな成功を収めたが、敵の摂動に対する脆弱性は大きな懸念を引き起こしている。
本稿では,LLMのマルチタスク特性を活用して,まずノイズの入力を識別し,次にこれらの復号化バージョンに基づいて予測を行う。
LLMのロバスト性を高めるために個別のモデルを訓練する必要がある従来のコンピュータビジョンのスムース化技術とは異なり、本手法は効率と柔軟性を著しく向上させる。
論文 参考訳(メタデータ) (2024-04-18T15:47:00Z) - Predictable MDP Abstraction for Unsupervised Model-Based RL [93.91375268580806]
予測可能なMDP抽象化(PMA)を提案する。
元のMDPで予測モデルを訓練する代わりに、学習されたアクション空間を持つ変換MDPでモデルを訓練する。
我々はPMAを理論的に解析し、PMAが以前の教師なしモデルベースRLアプローチよりも大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-02-08T07:37:51Z) - Plan To Predict: Learning an Uncertainty-Foreseeing Model for
Model-Based Reinforcement Learning [32.24146877835396]
本稿では,モデルロールアウト処理を逐次決定問題として扱うフレームワークであるemphPlan To Predict (P2P)を提案する。
P2Pは、いくつかの課題のあるベンチマークタスクにおいて最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-01-20T10:17:22Z) - COST-EFF: Collaborative Optimization of Spatial and Temporal Efficiency
with Slenderized Multi-exit Language Models [16.586312156966635]
トランスフォーマーベースの事前訓練言語モデル(PLM)は、高い能力にもかかわらず過度のオーバーヘッドに悩まされている。
既存の静的圧縮モデルは、入力インスタンス間の様々な複雑さに気づいていない。
静的モデル圧縮と動的推論アクセラレーションを統合したPLMの協調最適化を提案する。
論文 参考訳(メタデータ) (2022-10-27T15:06:40Z) - MoEBERT: from BERT to Mixture-of-Experts via Importance-Guided
Adaptation [68.30497162547768]
本研究では,Mixture-of-Experts構造を用いてモデルキャパシティと推論速度を向上させるMoEBERTを提案する。
自然言語理解と質問応答タスクにおけるMoEBERTの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2022-04-15T23:19:37Z) - Sample Efficient Reinforcement Learning via Model-Ensemble Exploration
and Exploitation [3.728946517493471]
MEEEは楽観的な探索と重み付けによる搾取からなるモデルアンサンブル法である。
我々の手法は、特にサンプル複雑性において、他のモデルフリーおよびモデルベース最先端手法よりも優れています。
論文 参考訳(メタデータ) (2021-07-05T07:18:20Z) - Dynamic Model Pruning with Feedback [64.019079257231]
余分なオーバーヘッドを伴わずにスパーストレーニングモデルを生成する新しいモデル圧縮法を提案する。
CIFAR-10 と ImageNet を用いて本手法の評価を行い,得られたスパースモデルが高密度モデルの最先端性能に到達可能であることを示す。
論文 参考訳(メタデータ) (2020-06-12T15:07:08Z) - BERT Loses Patience: Fast and Robust Inference with Early Exit [91.26199404912019]
本稿では,事前学習した言語モデルの効率性と堅牢性を向上させるためのプラグイン・アンド・プレイ手法として,Patience-based Early Exitを提案する。
提案手法では,モデルを少ないレイヤで予測できるため,推論効率が向上する。
論文 参考訳(メタデータ) (2020-06-07T13:38:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。