論文の概要: MiniSUPERB: Lightweight Benchmark for Self-supervised Speech Models
- arxiv url: http://arxiv.org/abs/2305.19011v1
- Date: Tue, 30 May 2023 13:07:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 16:12:44.291146
- Title: MiniSUPERB: Lightweight Benchmark for Self-supervised Speech Models
- Title(参考訳): MiniSUPERB:自己教師型音声モデルの軽量ベンチマーク
- Authors: Yu-Hsiang Wang, Huang-Yu Chen, Kai-Wei Chang, Winston Hsu, Hung-yi Lee
- Abstract要約: 自己教師付き学習(SSL)は、音声処理における一般的な研究トピックである。
SuperBは、多くの音声タスクにおけるSSL音声モデルの性能を評価するために提案された。
我々は,SUPERBに匹敵する結果のSSL音声モデルを効率的に評価するベンチマークであるMiniSUPERBを提案する。
- 参考スコア(独自算出の注目度): 98.87953149319338
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised learning (SSL) is a popular research topic in speech
processing. Successful SSL speech models must generalize well. SUPERB was
proposed to evaluate the ability of SSL speech models across many speech tasks.
However, due to the diversity of tasks, the evaluation process requires huge
computational costs. We present MiniSUPERB, a lightweight benchmark that
efficiently evaluates SSL speech models with comparable results to SUPERB while
greatly reducing the computational cost. We select representative tasks and
sample datasets and extract model representation offline, achieving 0.954 and
0.982 Spearman's rank correlation with SUPERB Paper and SUPERB Challenge,
respectively. In the meanwhile, the computational cost is reduced by 97% in
regard to MACs (number of Multiply-ACcumulate operations) in the tasks we
choose. To the best of our knowledge, this is the first study to examine not
only the computational cost of a model itself but the cost of evaluating it on
a benchmark.
- Abstract(参考訳): 自己教師付き学習(SSL)は、音声処理における一般的な研究トピックである。
SSL音声モデルは、うまく一般化する必要がある。
SUPERBは、多くの音声タスクにまたがるSSL音声モデルの能力を評価するために提案された。
しかし、タスクの多様性のため、評価プロセスは膨大な計算コストを必要とする。
本稿では,SUPERBに匹敵するSSL音声モデルを効率よく評価し,計算コストを大幅に削減する軽量ベンチマークであるMiniSUPERBを提案する。
代表タスクとサンプルデータセットを選択し, モデル表現をオフラインで抽出し, SUPERB Paper と SUPERB Challenge と 0.954 と 0.982 Spearman のランク相関をそれぞれ達成した。
一方、我々が選択したタスクにおけるmac(multiply-accumulate operations)に関しては、計算コストが97%削減されます。
私たちの知る限りでは、これはモデル自体の計算コストだけでなく、ベンチマークでそれを評価するコストも調査した最初の研究です。
関連論文リスト
- MiniCPM: Unveiling the Potential of Small Language Models with Scalable Training Strategies [85.57899012821211]
SLM(Small Language Models)は、LLM(Large Language Models)に代わるリソース効率の高いモデルである。
我々はMiniCPM、特に1.2Bと2.4Bの非埋め込みパラメータの変種を紹介する。
また、MiniCPM-DPO、MiniCPM-MoE、MiniCPM-128Kを含むMiniCPMファミリーについても紹介する。
論文 参考訳(メタデータ) (2024-04-09T15:36:50Z) - How to Estimate Model Transferability of Pre-Trained Speech Models? [84.11085139766108]
事前学習音声モデルの伝達可能性推定のためのスコアベースアセスメントフレームワーク
ベイズ確率推定と最適輸送という2つの表現理論を利用して、PSM候補のランクスコアを生成する。
本フレームワークは,候補モデルやレイヤを実際に微調整することなく,転送可能性スコアを効率的に計算する。
論文 参考訳(メタデータ) (2023-06-01T04:52:26Z) - A Comparative Study between Full-Parameter and LoRA-based Fine-Tuning on
Chinese Instruction Data for Instruction Following Large Language Model [8.21938165599387]
基礎モデルの選択、トレーニングデータセットのスケール、学習可能なパラメータ量、モデルのトレーニングコストは、すべて重要な要素である。
論文の結果の再現を容易にするため、データセット、モデル、コードを公開します。
論文 参考訳(メタデータ) (2023-04-17T09:36:36Z) - Model Extraction Attack against Self-supervised Speech Models [52.81330435990717]
自己教師付き学習(SSL)音声モデルは、与えられたクリップの有意義な表現を生成する。
モデル抽出攻撃 (MEA) は、しばしば、クエリアクセスのみで被害者モデルの機能を盗む敵を指す。
本稿では,少数のクエリを用いたSSL音声モデルに対するMEA問題について検討する。
論文 参考訳(メタデータ) (2022-11-29T09:28:05Z) - Application of Knowledge Distillation to Multi-task Speech
Representation Learning [2.0908300719428228]
音声表現学習モデルは多数のパラメータを使用し、最小のバージョンは95万のパラメータを持つ。
本稿では,知識蒸留の音声表現学習モデルへの適用と微調整について検討する。
その結果,0.1%の精度と0.9%の誤り率低下に悩まされる一方,モデルサイズが75%近く減少することがわかった。
論文 参考訳(メタデータ) (2022-10-29T14:22:43Z) - Sparse MoEs meet Efficient Ensembles [49.313497379189315]
このようなモデルの2つの一般的なクラス、すなわちニューラルネットワークのアンサンブルと専門家のスパースミックス(スパースMoE)の相互作用について研究する。
Efficient Ensemble of Experts (E$3$)は、両モデルのクラスを最大限に活用するスケーラブルでシンプルなMoEのアンサンブルであり、深いアンサンブルよりも最大45%少ないFLOPを使用する。
論文 参考訳(メタデータ) (2021-10-07T11:58:35Z) - SUPERB: Speech processing Universal PERformance Benchmark [78.41287216481203]
自然言語処理(NLP)とコンピュータビジョン(CV)の研究を進める上で、SSL(Self-supervised Learning)は不可欠です。
SuperBは、幅広い音声処理タスクで共有モデルのパフォーマンスをベンチマークするためのリーダーボードです。
凍結共有モデル上にタスク特化軽量予測ヘッドを学習することで、SUPERBタスクを解決するためのシンプルなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-03T17:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。