論文の概要: Finding Fast Transformers: One-Shot Neural Architecture Search by
Component Composition
- arxiv url: http://arxiv.org/abs/2008.06808v1
- Date: Sat, 15 Aug 2020 23:12:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 20:43:41.143305
- Title: Finding Fast Transformers: One-Shot Neural Architecture Search by
Component Composition
- Title(参考訳): 高速トランスフォーマーの発見: コンポーネント構成によるワンショットニューラルネットワークの探索
- Authors: Henry Tsai, Jayden Ooi, Chun-Sung Ferng, Hyung Won Chung, Jason Riesa
- Abstract要約: トランスフォーマーベースのモデルは、自然言語処理における多くのタスクにおいて最先端の結果を得た。
モデル品質を維持しつつ,高速なモデル探索を行うアルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 11.6409723227448
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Transformer-based models have achieved stateof-the-art results in many tasks
in natural language processing. However, such models are usually slow at
inference time, making deployment difficult. In this paper, we develop an
efficient algorithm to search for fast models while maintaining model quality.
We describe a novel approach to decompose the Transformer architecture into
smaller components, and propose a sampling-based one-shot architecture search
method to find an optimal model for inference. The model search process is more
efficient than alternatives, adding only a small overhead to training time. By
applying our methods to BERT-base architectures, we achieve 10% to 30% speedup
for pre-trained BERT and 70% speedup on top of a previous state-of-the-art
distilled BERT model on Cloud TPU-v2 with a generally acceptable drop in
performance.
- Abstract(参考訳): トランスフォーマーベースのモデルは、自然言語処理における多くのタスクにおいて最先端の結果を得た。
しかしながら、そのようなモデルは通常、推論時に遅く、デプロイメントが困難になる。
本稿では,モデル品質を維持しながら高速モデル探索を行う効率的なアルゴリズムを開発した。
本稿では,トランスフォーマーアーキテクチャをより小さなコンポーネントに分解する新しいアプローチについて述べるとともに,推論の最適モデルを見つけるためのサンプリングベースのワンショットアーキテクチャ探索法を提案する。
モデル検索プロセスは代替よりも効率的で、トレーニング時間にわずかなオーバーヘッドを加えるだけでよい。
提案手法をBERTベースアーキテクチャに適用することにより,従来のTPU-v2上での最先端蒸留BERTモデル上での事前学習BERTの10%から30%の高速化と70%の高速化を実現した。
関連論文リスト
- A-SDM: Accelerating Stable Diffusion through Redundancy Removal and
Performance Optimization [54.113083217869516]
本研究ではまず,ネットワークの計算冗長性について検討する。
次に、モデルの冗長性ブロックをプルークし、ネットワーク性能を維持する。
第3に,計算集約型注意部を高速化するグローバル地域対話型注意(GRI)を提案する。
論文 参考訳(メタデータ) (2023-12-24T15:37:47Z) - AutoDiffusion: Training-Free Optimization of Time Steps and
Architectures for Automated Diffusion Model Acceleration [57.846038404893626]
本稿では,拡散モデルに対する効率的な画像生成を実現するために,最適な時間ステップシーケンスと圧縮モデルアーキテクチャを統一されたフレームワークで探索することを提案する。
実験結果から,ImageNet 64$times$64の17.86 FIDスコアとDDIMの138.66の4ステップのFIDスコアを用いると,優れた性能が得られることがわかった。
論文 参考訳(メタデータ) (2023-09-19T08:57:24Z) - MoEBERT: from BERT to Mixture-of-Experts via Importance-Guided
Adaptation [68.30497162547768]
本研究では,Mixture-of-Experts構造を用いてモデルキャパシティと推論速度を向上させるMoEBERTを提案する。
自然言語理解と質問応答タスクにおけるMoEBERTの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2022-04-15T23:19:37Z) - A Fast Post-Training Pruning Framework for Transformers [74.59556951906468]
プルーニングは、大きなTransformerモデルの巨大な推論コストを削減する効果的な方法である。
モデルプルーニングの以前の作業では、モデルの再トレーニングが必要だった。
本稿では,再学習を必要としないトランスフォーマーのための高速な訓練後プルーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T07:41:11Z) - AutoBERT-Zero: Evolving BERT Backbone from Scratch [94.89102524181986]
そこで本稿では,提案するハイブリッドバックボーンアーキテクチャを自動検索するOP-NASアルゴリズムを提案する。
提案するOP-NASの効率を向上させるために,探索アルゴリズムと候補モデルの評価を最適化する。
実験の結果、検索されたアーキテクチャ(AutoBERT-Zero)は、様々な下流タスクにおいてBERTとそのバリエーションの異なるモデル容量を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-07-15T16:46:01Z) - Real-Time Execution of Large-scale Language Models on Mobile [49.32610509282623]
BERTの最良のモデル構造は,特定のデバイスに適合する計算サイズである。
我々のフレームワークは、モバイルデバイスのリソース仕様とリアルタイム仕様の両方を満たすための特定モデルを保証することができる。
具体的には、当社のモデルはCPUでは5.2倍、GPUでは4.1倍、BERTベースでは0.5-2%の精度損失がある。
論文 参考訳(メタデータ) (2020-09-15T01:59:17Z) - Deep-n-Cheap: An Automated Search Framework for Low Complexity Deep
Learning [3.479254848034425]
私たちはディープラーニングモデルを探すためのオープンソースのAutoMLフレームワークであるDeep-n-Cheapを紹介します。
私たちのフレームワークは、ベンチマークとカスタムデータセットの両方へのデプロイをターゲットとしています。
Deep-n-Cheapには、トレーニング時間やパラメータ数とパフォーマンスをトレードオフする、ユーザ管理可能な複雑性ペナルティが含まれている。
論文 参考訳(メタデータ) (2020-03-27T13:00:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。