論文の概要: Layer Reduction: Accelerating Conformer-Based Self-Supervised Model via
Layer Consistency
- arxiv url: http://arxiv.org/abs/2105.00812v1
- Date: Thu, 8 Apr 2021 08:21:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 20:41:18.097657
- Title: Layer Reduction: Accelerating Conformer-Based Self-Supervised Model via
Layer Consistency
- Title(参考訳): 層還元: 層整合性によるコンバータベース自己監督モデルの高速化
- Authors: Jinchuan Tian, Rongzhi Gu, Helin Wang, Yuexian Zou
- Abstract要約: トランスフォーマーをベースとした自己教師型モデルは特徴抽出器として訓練され、多くの下流音声タスクで最先端のパフォーマンスを実現している。
従来のBERT法と同等の性能を維持しつつ、7.8Xパラメータの削減、41.9%のトレーニングスピードアップ、37.7%の推論スピードアップを実験的に達成した。
- 参考スコア(独自算出の注目度): 31.572652956170252
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Transformer-based self-supervised models are trained as feature extractors
and have empowered many downstream speech tasks to achieve state-of-the-art
performance. However, both the training and inference process of these models
may encounter prohibitively high computational cost and large parameter budget.
Although Parameter Sharing Strategy (PSS) proposed in ALBERT paves the way for
parameter reduction, the computation required remains the same. Interestingly,
we found in experiments that distributions of feature embeddings from different
Transformer layers are similar when PSS is integrated: a property termed as
Layer Consistency (LC) in this paper. Given this similarity of feature
distributions, we assume that feature embeddings from different layers would
have similar representing power. In this work, Layer Consistency enables us to
adopt Transformer-based models in a more efficient manner: the number of
Conformer layers in each training iteration could be uniformly sampled and
Shallow Layer Inference (SLI) could be applied to reduce the number of layers
in inference stage. In experiments, our models are trained with LibriSpeech
dataset and then evaluated on both phone classification and Speech Recognition
tasks. We experimentally achieve 7.8X parameter reduction, 41.9% training
speedup and 37.7% inference speedup while maintaining comparable performance
with conventional BERT-like self-supervised methods.
- Abstract(参考訳): トランスフォーマーベースの自己教師型モデルは、特徴抽出器として訓練され、多くの下流音声タスクで最先端のパフォーマンスを達成することができる。
しかし、これらのモデルのトレーニングと推論のプロセスは、非常に高い計算コストと大きなパラメータの予算に遭遇する可能性がある。
ALBERTで提案されたパラメータ共有戦略(PSS)はパラメータ還元の道を開くが、必要な計算量は変わらない。
興味深いことに、我々は実験において、異なるトランスフォーマー層からの特徴埋め込みの分布が、PSSの統合時に類似していることを発見した。
このような特徴分布の類似性を考えると、異なる層からの特徴埋め込みは、同様の表現力を持つと仮定する。
この作業では、レイヤ一貫性により、Transformerベースのモデルをより効率的な方法で採用することができます。各トレーニングイテレーションにおけるコンバータ層の数を均一にサンプリングし、Shallow Layer Inference(SLI)を適用して、推論ステージにおけるレイヤ数を削減できます。
実験では,我々のモデルはLibriSpeechデータセットを用いて訓練され,音声分類と音声認識の両方のタスクで評価される。
従来のBERT法と同等の性能を維持しつつ,7.8Xパラメータ削減,41.9%のトレーニング高速化,37.7%の推論高速化を実現した。
関連論文リスト
- Dynamic Layer Tying for Parameter-Efficient Transformers [65.268245109828]
トレーニング中にレイヤを選択し、それらを結びつけるために強化学習を採用しています。
これにより、重量共有が容易になり、トレーニング可能なパラメータの数を減らし、効果的な正規化技術としても機能する。
特に、トレーニング中のメモリ消費は、従来のトレーニング方法よりも1桁も少ない。
論文 参考訳(メタデータ) (2024-01-23T14:53:20Z) - LRP-QViT: Mixed-Precision Vision Transformer Quantization via Layer-wise
Relevance Propagation [0.0]
LRP-QViTは、異なる層に混合精度のビット割り当てを割り当てる説明可能性に基づく手法である。
実験結果から,固定ビット・混合ビット後量子化法が既存の4ビット・6ビット量子化法を超越していることが判明した。
論文 参考訳(メタデータ) (2024-01-20T14:53:19Z) - The Languini Kitchen: Enabling Language Modelling Research at Different
Scales of Compute [66.84421705029624]
本稿では,アクセル時間で測定された等価計算に基づくモデル比較を可能にする実験的プロトコルを提案する。
私たちは、既存の学術的ベンチマークを上回り、品質、多様性、文書の長さで上回る、大規模で多様で高品質な書籍データセットを前処理します。
この研究は、GPT-2アーキテクチャから派生したフィードフォワードモデルと、10倍のスループットを持つ新しいLSTMの形式でのリカレントモデルという2つのベースラインモデルも提供する。
論文 参考訳(メタデータ) (2023-09-20T10:31:17Z) - Adapted Multimodal BERT with Layer-wise Fusion for Sentiment Analysis [84.12658971655253]
本稿では,マルチモーダルタスクのためのBERTベースのアーキテクチャであるAdapted Multimodal BERTを提案する。
アダプタはタスクの事前訓練された言語モデルを手動で調整し、融合層はタスク固有の層ワイドな音声視覚情報とテキストBERT表現を融合させる。
われわれは、このアプローチがより効率的なモデルにつながり、微調整されたモデルよりも優れ、ノイズの入力に堅牢であることを示した。
論文 参考訳(メタデータ) (2022-12-01T17:31:42Z) - Prompt Tuning for Parameter-efficient Medical Image Segmentation [79.09285179181225]
2つの医用画像データセットのセマンティックセグメンテーションにパラメータ効率が良いが効果的な適応を実現するために,いくつかのコントリビューションを提案し,検討する。
我々はこのアーキテクチャを、オンライン生成プロトタイプへの割り当てに基づく専用密集型セルフスーパービジョンスキームで事前訓練する。
得られたニューラルネットワークモデルにより、完全に微調整されたモデルとパラメータに適応したモデルとのギャップを緩和できることを実証する。
論文 参考訳(メタデータ) (2022-11-16T21:55:05Z) - Fine-Tuned Transformers Show Clusters of Similar Representations Across
Layers [27.68150225442148]
カーネルアライメント(CKA)を用いて、レイヤ間のタスクチューニングモデルにおける表現の類似性を計測する。
12のNLUタスクを対象とした実験では、細調整されたRoBERTaおよびALBERTモデル内の表現の類似性において、一貫したブロック対角構造が発見された。
実験では、微調整トランスフォーマーの上位数層は、それ以上のチューニングを行わなくても、パフォーマンスを損なうことなく破棄できることを確認した。
論文 参考訳(メタデータ) (2021-09-17T08:32:41Z) - Layer Pruning on Demand with Intermediate CTC [50.509073206630994]
我々はコネクショニスト時間分類(CTC)に基づくASRの訓練と刈り取り方法を提案する。
本稿では,Transformer-CTCモデルをオンデマンドで様々な深さでプルーニングできることを示し,GPU上でのリアルタイム係数を0.005から0.002に改善した。
論文 参考訳(メタデータ) (2021-06-17T02:40:18Z) - IOT: Instance-wise Layer Reordering for Transformer Structures [173.39918590438245]
トランスフォーマの固定層順序の仮定を分解し,モデル構造にインスタンス単位の層順序変更を導入する。
当社の手法はTransformer以外のアーキテクチャにも適用可能です。
論文 参考訳(メタデータ) (2021-03-05T03:44:42Z) - On the Effect of Dropping Layers of Pre-trained Transformer Models [35.25025837133909]
我々は、事前訓練されたモデルにレイヤをドロップする戦略を探求し、下流のGLUEタスクに対するプルーニングの効果を観察する。
BERT、RoBERTa、XLNetのモデルを40%まで、元のパフォーマンスの98%を維持できたのです。
実験の結果,下層が下流のタスク性能を維持する上で最も重要であること,(ii)パラフレーズ検出や文類似性などのタスクは,レイヤの降下に対してより堅牢であること,(iii)異なる目的関数を用いてトレーニングされたモデルが異なる学習パターンを示し,レイヤが低下すること,などの興味深い観察結果が得られた。
論文 参考訳(メタデータ) (2020-04-08T07:09:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。