論文の概要: HULK: An Energy Efficiency Benchmark Platform for Responsible Natural
Language Processing
- arxiv url: http://arxiv.org/abs/2002.05829v1
- Date: Fri, 14 Feb 2020 01:04:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 04:49:27.827262
- Title: HULK: An Energy Efficiency Benchmark Platform for Responsible Natural
Language Processing
- Title(参考訳): HULK: 責任のある自然言語処理のためのエネルギー効率ベンチマークプラットフォーム
- Authors: Xiyou Zhou, Zhiyu Chen, Xiaoyong Jin, William Yang Wang
- Abstract要約: 本稿では,自然言語処理のためのマルチタスクエネルギー効率ベンチマークプラットフォームであるHULKを紹介する。
我々は、事前訓練されたモデルのエネルギー効率を時間とコストの観点から比較する。
- 参考スコア(独自算出の注目度): 76.38975568873765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computation-intensive pretrained models have been taking the lead of many
natural language processing benchmarks such as GLUE. However, energy efficiency
in the process of model training and inference becomes a critical bottleneck.
We introduce HULK, a multi-task energy efficiency benchmarking platform for
responsible natural language processing. With HULK, we compare pretrained
models' energy efficiency from the perspectives of time and cost. Baseline
benchmarking results are provided for further analysis. The fine-tuning
efficiency of different pretrained models can differ a lot among different
tasks and fewer parameter number does not necessarily imply better efficiency.
We analyzed such phenomenon and demonstrate the method of comparing the
multi-task efficiency of pretrained models. Our platform is available at
https://sites.engineering.ucsb.edu/~xiyou/hulk/.
- Abstract(参考訳): 計算集約型事前訓練モデルは、GLUEのような多くの自然言語処理ベンチマークをリードしている。
しかし、モデルトレーニングと推論の過程におけるエネルギー効率は重要なボトルネックとなる。
本稿では,自然言語処理のためのマルチタスクエネルギー効率ベンチマークプラットフォームであるHULKを紹介する。
HULKでは、時間とコストの観点から事前学習したモデルのエネルギー効率を比較する。
ベースラインベンチマークの結果は、さらなる分析のために提供される。
異なる事前学習モデルの微調整効率は、異なるタスク間で大きく異なり、パラメータ数が少なくても必ずしも効率が向上するとは限らない。
このような現象を分析し,事前学習モデルのマルチタスク効率を比較する方法を示した。
私たちのプラットフォームはhttps://sites.engineering.ucsb.edu/~xiyou/hulk/で利用可能です。
関連論文リスト
- Cheaply Evaluating Inference Efficiency Metrics for Autoregressive
Transformer APIs [66.30706841821123]
大規模言語モデル(LLM)は、自然言語処理において多くの最先端システムに電力を供給する。
LLMは、推論時でさえ非常に計算コストが高い。
モデル間での推論効率を比較するための新しい指標を提案する。
論文 参考訳(メタデータ) (2023-05-03T21:51:42Z) - MoEBERT: from BERT to Mixture-of-Experts via Importance-Guided
Adaptation [68.30497162547768]
本研究では,Mixture-of-Experts構造を用いてモデルキャパシティと推論速度を向上させるMoEBERTを提案する。
自然言語理解と質問応答タスクにおけるMoEBERTの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2022-04-15T23:19:37Z) - PaLM: Scaling Language Modeling with Pathways [180.69584031908113]
我々は,パスウェイズ言語モデル PaLM と呼ばれるトランスフォーマー言語モデルを用いて,540ビリオンのパラメータを訓練した。
我々はPathwaysという新しいMLシステムを用いて,6144 TPU v4チップ上でPaLMをトレーニングした。
数百の言語理解および生成ベンチマーク上で、最先端の数発の学習結果を達成し、スケーリングの継続的なメリットを実証する。
論文 参考訳(メタデータ) (2022-04-05T16:11:45Z) - Maximizing Efficiency of Language Model Pre-training for Learning
Representation [6.518508607788086]
ELECTRAは、事前訓練された言語モデルの計算効率を改善するための新しいアプローチである。
本研究は,事前学習プロセスの効率を最大化する適応早期終了戦略を提案する。
論文 参考訳(メタデータ) (2021-10-13T10:25:06Z) - Joint Energy-based Model Training for Better Calibrated Natural Language
Understanding Models [61.768082640087]
自然言語理解タスクのための事前学習テキストエンコーダの微調整中に、共同エネルギーベースモデル(EBM)トレーニングを検討します。
実験では、EMMトレーニングはモデルが強力なベースラインに匹敵するより良いキャリブレーションに達するのに役立つことが示されています。
論文 参考訳(メタデータ) (2021-01-18T01:41:31Z) - MC-BERT: Efficient Language Pre-Training via a Meta Controller [96.68140474547602]
大規模事前学習は計算コストが高い。
事前トレーニングを加速する初期の試みであるELECTRAは、各入力トークンがジェネレータに置き換えられたかどうかを予測する識別モデルを訓練している。
本稿では,MC-BERTというメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T09:22:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。