論文の概要: Evaluating Parameter-Efficient Transfer Learning Approaches on SURE
Benchmark for Speech Understanding
- arxiv url: http://arxiv.org/abs/2303.03267v1
- Date: Thu, 2 Mar 2023 08:57:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 15:31:14.186467
- Title: Evaluating Parameter-Efficient Transfer Learning Approaches on SURE
Benchmark for Speech Understanding
- Title(参考訳): 音声理解のためのSUREベンチマークに基づくパラメータ効率の良い伝達学習手法の評価
- Authors: Yingting Li, Ambuj Mehrish, Shuai Zhao, Rishabh Bhardwaj, Amir Zadeh,
Navonil Majumder, Rada Mihalcea, Soujanya Poria
- Abstract要約: ファインチューニングは、事前訓練されたモデルからのトランスファー学習のデフォルトアルゴリズムとして広く使われている。
本稿では,様々な音声処理タスクに対するパラメータ効率学習のための音声不確定評価(SURE)ベンチマークを提案する。
- 参考スコア(独自算出の注目度): 40.27182770995891
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Fine-tuning is widely used as the default algorithm for transfer learning
from pre-trained models. Parameter inefficiency can however arise when, during
transfer learning, all the parameters of a large pre-trained model need to be
updated for individual downstream tasks. As the number of parameters grows,
fine-tuning is prone to overfitting and catastrophic forgetting. In addition,
full fine-tuning can become prohibitively expensive when the model is used for
many tasks. To mitigate this issue, parameter-efficient transfer learning
algorithms, such as adapters and prefix tuning, have been proposed as a way to
introduce a few trainable parameters that can be plugged into large pre-trained
language models such as BERT, and HuBERT. In this paper, we introduce the
Speech UndeRstanding Evaluation (SURE) benchmark for parameter-efficient
learning for various speech-processing tasks. Additionally, we introduce a new
adapter, ConvAdapter, based on 1D convolution. We show that ConvAdapter
outperforms the standard adapters while showing comparable performance against
prefix tuning and LoRA with only 0.94% of trainable parameters on some of the
task in SURE. We further explore the effectiveness of parameter efficient
transfer learning for speech synthesis task such as Text-to-Speech (TTS).
- Abstract(参考訳): ファインチューニングは、事前訓練されたモデルからのトランスファー学習のデフォルトアルゴリズムとして広く使われている。
しかし、パラメータ非効率性は、転送学習の間、大きな事前訓練されたモデルのパラメータが下流の個々のタスクのために更新される必要があるときに生じる。
パラメータの数が増えるにつれて、微調整は過度に適合し、破滅的な忘れがちである。
さらに、モデルが多くのタスクに使用される場合、完全な微調整は禁止的に高価になる可能性がある。
この問題を軽減するために,BERT や HuBERT などの大規模事前学習言語モデルにプラグイン可能な,いくつかのトレーニング可能なパラメータを導入する手段として,アダプタやプレフィックスチューニングなどのパラメータ効率のよい転送学習アルゴリズムが提案されている。
本稿では,様々な音声処理タスクに対するパラメータ効率学習のための音声不確定評価(SURE)ベンチマークを提案する。
さらに、1D畳み込みに基づく新しいアダプタであるConvAdapterを導入する。
我々は、SUREのタスクの一部でトレーニング可能なパラメータのわずか0.94%でプレフィックスチューニングとLoRAと同等のパフォーマンスを示しながら、ConvAdapterが標準アダプタよりも優れていることを示す。
さらに,text-to-speech (tts) などの音声合成タスクにおけるパラメータ効率の高い転送学習の有効性について検討する。
関連論文リスト
- Parameter-Efficient Fine-Tuning With Adapters [5.948206235442328]
本研究では,UniPELTフレームワークをベースとした新しい適応手法を提案する。
提案手法では, ベースモデルパラメータの最小限の再学習を行うことなく, 事前学習したモデルを新しいタスクに効率的に転送できるアダプタを用いる。
論文 参考訳(メタデータ) (2024-05-09T01:40:38Z) - Dynamic Adapter Meets Prompt Tuning: Parameter-Efficient Transfer Learning for Point Cloud Analysis [51.14136878142034]
ポイントクラウド分析は、事前訓練されたモデルのポイントクラウドの転送によって、優れたパフォーマンスを実現している。
モデル適応のための既存の方法は通常、高い計算コストに依存するため、非効率な全てのモデルパラメータを更新する。
本稿では,タスク性能とパラメータ効率のトレードオフを考慮した,ポイントクラウド解析のためのパラメータ効率変換学習を提案する。
論文 参考訳(メタデータ) (2024-03-03T08:25:04Z) - Parameter-Efficient Fine-Tuning without Introducing New Latency [7.631596468553607]
隠れ表現の代わりに事前学習パラメータに直接アダプタを適用する新しいアダプタ技術を導入する。
提案手法は,性能と記憶効率の両面で新たな最先端性を実現し,完全微調整のパラメータは0.03%に過ぎなかった。
論文 参考訳(メタデータ) (2023-05-26T08:44:42Z) - Sensitivity-Aware Visual Parameter-Efficient Fine-Tuning [91.5113227694443]
私たちは新しいビジュアルを提案します。
Sensuous-Aware Fine-Tuning (SPT) スキーム。
SPTはタスク固有の重要な位置にトレーニング可能なパラメータを割り当てる。
ダウンストリーム認識タスクの幅広い実験により,SPTは既存のPEFT法と相補的であることが示された。
論文 参考訳(メタデータ) (2023-03-15T12:34:24Z) - Exploring Efficient-tuning Methods in Self-supervised Speech Models [53.633222197712875]
自己教師付き学習は、異なる音声タスクの強力な表現を学習することができる。
下流タスクでは、SSLモデルのパラメータは凍結され、アダプタのみがトレーニングされる。
90%以上のパラメータ削減を達成できることを示す。
論文 参考訳(メタデータ) (2022-10-10T11:08:12Z) - Few-Shot Parameter-Efficient Fine-Tuning is Better and Cheaper than
In-Context Learning [81.3514358542452]
ICL (Few-shot in-context Learning) は、予測を行うたびにトレーニング例を全て処理するので、かなりの計算、メモリ、ストレージコストを発生させる。
パラメータ効率の良い微調整は、モデルの新たなタスクの実行を可能にするために、小さなパラメータセットをトレーニングする、代替パラダイムを提供する。
本稿では,少数ショットICLとパラメータ効率の微調整を厳密に比較し,後者が計算コストを劇的に削減できることを示す。
論文 参考訳(メタデータ) (2022-05-11T17:10:41Z) - AdapterBias: Parameter-efficient Token-dependent Representation Shift
for Adapters in NLP Tasks [55.705355299065474]
数百万のパラメータを持つトランスフォーマーベースの事前学習モデルは、大きなストレージを必要とする。
近年のアプローチでは、アダプタをトレーニングすることでこの欠点に対処しているが、それでも比較的多くのパラメータを必要とする。
本研究では,驚くほどシンプルで効果的なアダプタアーキテクチャであるAdapterBiasを提案する。
論文 参考訳(メタデータ) (2022-04-30T16:49:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。