論文の概要: MiniSUPERB: Lightweight Benchmark for Self-supervised Speech Models
- arxiv url: http://arxiv.org/abs/2305.19011v1
- Date: Tue, 30 May 2023 13:07:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 16:12:44.291146
- Title: MiniSUPERB: Lightweight Benchmark for Self-supervised Speech Models
- Title(参考訳): MiniSUPERB:自己教師型音声モデルの軽量ベンチマーク
- Authors: Yu-Hsiang Wang, Huang-Yu Chen, Kai-Wei Chang, Winston Hsu, Hung-yi Lee
- Abstract要約: 自己教師付き学習(SSL)は、音声処理における一般的な研究トピックである。
SuperBは、多くの音声タスクにおけるSSL音声モデルの性能を評価するために提案された。
我々は,SUPERBに匹敵する結果のSSL音声モデルを効率的に評価するベンチマークであるMiniSUPERBを提案する。
- 参考スコア(独自算出の注目度): 98.87953149319338
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised learning (SSL) is a popular research topic in speech
processing. Successful SSL speech models must generalize well. SUPERB was
proposed to evaluate the ability of SSL speech models across many speech tasks.
However, due to the diversity of tasks, the evaluation process requires huge
computational costs. We present MiniSUPERB, a lightweight benchmark that
efficiently evaluates SSL speech models with comparable results to SUPERB while
greatly reducing the computational cost. We select representative tasks and
sample datasets and extract model representation offline, achieving 0.954 and
0.982 Spearman's rank correlation with SUPERB Paper and SUPERB Challenge,
respectively. In the meanwhile, the computational cost is reduced by 97% in
regard to MACs (number of Multiply-ACcumulate operations) in the tasks we
choose. To the best of our knowledge, this is the first study to examine not
only the computational cost of a model itself but the cost of evaluating it on
a benchmark.
- Abstract(参考訳): 自己教師付き学習(SSL)は、音声処理における一般的な研究トピックである。
SSL音声モデルは、うまく一般化する必要がある。
SUPERBは、多くの音声タスクにまたがるSSL音声モデルの能力を評価するために提案された。
しかし、タスクの多様性のため、評価プロセスは膨大な計算コストを必要とする。
本稿では,SUPERBに匹敵するSSL音声モデルを効率よく評価し,計算コストを大幅に削減する軽量ベンチマークであるMiniSUPERBを提案する。
代表タスクとサンプルデータセットを選択し, モデル表現をオフラインで抽出し, SUPERB Paper と SUPERB Challenge と 0.954 と 0.982 Spearman のランク相関をそれぞれ達成した。
一方、我々が選択したタスクにおけるmac(multiply-accumulate operations)に関しては、計算コストが97%削減されます。
私たちの知る限りでは、これはモデル自体の計算コストだけでなく、ベンチマークでそれを評価するコストも調査した最初の研究です。
関連論文リスト
- Efficient Training of Self-Supervised Speech Foundation Models on a
Compute Budget [57.807614181024114]
本稿では,限定的な計算予算の下で,自己教師付き学習(SSL)を用いて音声基礎モデルを効率的に訓練する方法を検討する。
モデルアーキテクチャ、モデルサイズ、データサイズなど、予算に影響を与えるSSLの重要な要因について検討する。
論文 参考訳(メタデータ) (2024-09-09T10:36:42Z) - ML-SUPERB 2.0: Benchmarking Multilingual Speech Models Across Modeling Constraints, Languages, and Datasets [106.7760874400261]
本稿では、事前訓練されたSSLと教師付き音声モデルを評価するための新しいベンチマークであるML-SUPERB2.0を提案する。
ML-SUPERBのセットアップよりも性能が向上するが、性能は下流モデル設計に依存している。
また、言語とデータセットのパフォーマンスに大きな違いがあることから、よりターゲットを絞ったアプローチの必要性も示唆されている。
論文 参考訳(メタデータ) (2024-06-12T21:01:26Z) - MiniCPM: Unveiling the Potential of Small Language Models with Scalable Training Strategies [85.57899012821211]
SLM(Small Language Models)は、LLM(Large Language Models)に代わるリソース効率の高いモデルである。
我々はMiniCPM、特に1.2Bと2.4Bの非埋め込みパラメータの変種を紹介する。
また、MiniCPM-DPO、MiniCPM-MoE、MiniCPM-128Kを含むMiniCPMファミリーについても紹介する。
論文 参考訳(メタデータ) (2024-04-09T15:36:50Z) - Model Extraction Attack against Self-supervised Speech Models [52.81330435990717]
自己教師付き学習(SSL)音声モデルは、与えられたクリップの有意義な表現を生成する。
モデル抽出攻撃 (MEA) は、しばしば、クエリアクセスのみで被害者モデルの機能を盗む敵を指す。
本稿では,少数のクエリを用いたSSL音声モデルに対するMEA問題について検討する。
論文 参考訳(メタデータ) (2022-11-29T09:28:05Z) - Application of Knowledge Distillation to Multi-task Speech
Representation Learning [2.0908300719428228]
音声表現学習モデルは多数のパラメータを使用し、最小のバージョンは95万のパラメータを持つ。
本稿では,知識蒸留の音声表現学習モデルへの適用と微調整について検討する。
その結果,0.1%の精度と0.9%の誤り率低下に悩まされる一方,モデルサイズが75%近く減少することがわかった。
論文 参考訳(メタデータ) (2022-10-29T14:22:43Z) - SUPERB: Speech processing Universal PERformance Benchmark [78.41287216481203]
自然言語処理(NLP)とコンピュータビジョン(CV)の研究を進める上で、SSL(Self-supervised Learning)は不可欠です。
SuperBは、幅広い音声処理タスクで共有モデルのパフォーマンスをベンチマークするためのリーダーボードです。
凍結共有モデル上にタスク特化軽量予測ヘッドを学習することで、SUPERBタスクを解決するためのシンプルなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-03T17:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。