論文の概要: Beyond Universal Transformer: block reusing with adaptor in Transformer
for automatic speech recognition
- arxiv url: http://arxiv.org/abs/2303.13072v2
- Date: Wed, 5 Apr 2023 08:36:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-06 15:10:10.024391
- Title: Beyond Universal Transformer: block reusing with adaptor in Transformer
for automatic speech recognition
- Title(参考訳): Beyond Universal Transformer: 自動音声認識のためのTransformerのアダプタによるブロック再利用
- Authors: Haoyu Tang, Zhaoyi Liu, Chang Zeng, Xinfeng Li
- Abstract要約: 本稿では,エッジデバイスへのASRの適用のために,Transformerモデルのブロックを再利用可能なソリューションを提案する。
具体的には、パラメータの有効性を高めるために、音声変換器(BRST)の新しいブロック再利用戦略を設計する。
- 参考スコア(独自算出の注目度): 2.5680214354539803
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformer-based models have recently made significant achievements in the
application of end-to-end (E2E) automatic speech recognition (ASR). It is
possible to deploy the E2E ASR system on smart devices with the help of
Transformer-based models. While these models still have the disadvantage of
requiring a large number of model parameters. To overcome the drawback of
universal Transformer models for the application of ASR on edge devices, we
propose a solution that can reuse the block in Transformer models for the
occasion of the small footprint ASR system, which meets the objective of
accommodating resource limitations without compromising recognition accuracy.
Specifically, we design a novel block-reusing strategy for speech Transformer
(BRST) to enhance the effectiveness of parameters and propose an adapter module
(ADM) that can produce a compact and adaptable model with only a few additional
trainable parameters accompanying each reusing block. We conducted an
experiment with the proposed method on the public AISHELL-1 corpus, and the
results show that the proposed approach achieves the character error rate (CER)
of 9.3%/6.63% with only 7.6M/8.3M parameters without and with the ADM,
respectively. In addition, we also make a deeper analysis to show the effect of
ADM in the general block-reusing method.
- Abstract(参考訳): トランスフォーマーベースモデルは最近、エンドツーエンド(E2E)自動音声認識(ASR)の適用において大きな成果を上げている。
Transformerベースのモデルを使用して、E2E ASRシステムをスマートデバイスにデプロイすることができる。
これらのモデルには、多くのモデルパラメータを必要とする欠点がある。
エッジデバイスにおけるasrの適用におけるユニバーサルトランスフォーマーモデルの欠点を克服するため,認識精度を損なうことなく資源制限を満たした小型フットプリントasrシステムにおいて,トランスフォーマーモデルのブロックを再利用する手法を提案する。
具体的には,パラメータの有効性を高めるために,音声トランスフォーマタ(brst)のための新しいブロックリユース戦略を設計し,各リユースブロックに付随する数個の練習可能なパラメータしか持たないコンパクトで適応可能なモデルを生成するアダプタモジュール(adm)を提案する。
提案手法をAISHELL-1コーパス上で実験した結果,提案手法は文字誤り率(CER)が9.3%/6.63%であり,ADMは7.6M/8.3Mのパラメータしか持たないことがわかった。
さらに, 一般ブロック再利用法におけるADMの効果について, より深い解析を行った。
関連論文リスト
- Re-Parameterization of Lightweight Transformer for On-Device Speech Emotion Recognition [10.302458835329539]
軽量トランスフォーマーモデルの性能向上のための新しい手法であるTransformer Re-パラメータ化を導入する。
実験の結果,提案手法は軽量トランスフォーマーの性能を常に改善し,大規模モデルに匹敵する性能を示した。
論文 参考訳(メタデータ) (2024-11-14T10:36:19Z) - SMPLer: Taming Transformers for Monocular 3D Human Shape and Pose Estimation [74.07836010698801]
この問題に対処するために,SMPLベースのトランスフォーマーフレームワーク(SMPLer)を提案する。
SMPLerは、切り離された注意操作とSMPLベースのターゲット表現の2つの重要な要素を組み込んでいる。
SMPLerの既存の3次元人体形状に対する効果とポーズ推定方法の実証実験を行った。
論文 参考訳(メタデータ) (2024-04-23T17:59:59Z) - External Prompt Features Enhanced Parameter-efficient Fine-tuning for Salient Object Detection [6.5971464769307495]
Salient Object Detection (SOD) は、画像中の最も健全なオブジェクトを見つけ、ピクセルレベルのバイナリマスクを出力することを目的としている。
トランスフォーマーに基づく手法は,グローバルなセマンティック理解により,有望な性能を実現する。
そこで本研究では,トレーニングパラメータ数の削減を目的とした,パラメータ効率の高いファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T13:15:07Z) - SDPose: Tokenized Pose Estimation via Circulation-Guide Self-Distillation [53.675725490807615]
SDPoseは小型変圧器モデルの性能向上のための新しい自己蒸留法である。
SDPose-Tは4.4Mパラメータと1.8 GFLOPを持つ69.7%のmAPを取得し、SDPose-S-V2はMSCOCO検証データセット上で73.5%のmAPを取得する。
論文 参考訳(メタデータ) (2024-04-04T15:23:14Z) - Parameter-Efficient Conformers via Sharing Sparsely-Gated Experts for
End-to-End Speech Recognition [17.73449206184214]
本稿では,スパースゲート型エキスパートの共有によるパラメータ効率の高いコンバータを提案する。
具体的には,コンバータブロックの容量を増大させることなく,スパースゲート・オブ・エグゼクティブ(MoE)を用いて,コンバータブロックの容量を拡大する。
論文 参考訳(メタデータ) (2022-09-17T13:22:19Z) - AdaMix: Mixture-of-Adapter for Parameter-efficient Tuning of Large
Language Models [119.7093605087114]
大規模なトレーニング済み言語モデルをダウンストリームタスクに微調整するには、数億のパラメータを更新する必要がある。
これにより、各タスクのモデルの重みの大量コピーを格納するためのサービスコストが増大するだけでなく、数発のタスク適応中に不安定を示す。
パラメータや計算コストを2つの重要な手法で増大させることなく、アダプタ容量を改善するための新しいメカニズムを導入する。
論文 参考訳(メタデータ) (2022-05-24T23:41:22Z) - Bilaterally Slimmable Transformer for Elastic and Efficient Visual
Question Answering [75.86788916930377]
左右にスリム化可能なトランスフォーマー(BST)は任意のトランスフォーマーベースのVQAモデルに統合される。
1つのスリム化MCAN-BSTサブモデルは、VQA-v2で同等の精度を達成する。
最も小さなMCAN-BSTサブモデルは、推論中に9Mパラメータと0.16GのFLOPを持つ。
論文 参考訳(メタデータ) (2022-03-24T02:26:04Z) - EdgeFormer: A Parameter-Efficient Transformer for On-Device Seq2seq
Generation [104.44478403427881]
EdgeFormerは、オンデバイスセq2seq生成のためのエンコーダデコーダアーキテクチャのパラメータ効率の変換器である。
本研究は,機械翻訳と文法誤り訂正という2つの実用的なオンデバイスセク2seqタスクの実験を行う。
論文 参考訳(メタデータ) (2022-02-16T10:10:00Z) - Bayesian Transformer Language Models for Speech Recognition [59.235405107295655]
トランスフォーマーで表現される最先端のニューラルネットワークモデル(LM)は非常に複雑である。
本稿では,トランスフォーマーLM推定のためのベイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-09T10:55:27Z) - Adaptable Multi-Domain Language Model for Transformer ASR [16.8397357399749]
提案モデルでは,原モデルのすべての層を用いて微調整された完全微調整LMを再利用することができる。
提案モデルはまた,コストと時間を要する共通LM事前学習プロセスを省くことができるため,モデル保守コストの低減にも有効である。
論文 参考訳(メタデータ) (2020-08-14T06:33:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。