論文の概要: On-Device Constrained Self-Supervised Speech Representation Learning for
Keyword Spotting via Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2307.02720v1
- Date: Thu, 6 Jul 2023 02:03:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 15:33:53.570713
- Title: On-Device Constrained Self-Supervised Speech Representation Learning for
Keyword Spotting via Knowledge Distillation
- Title(参考訳): 知識蒸留によるキーワードスポッティングのためのオンデバイス制約付き自己教師付き音声表現学習
- Authors: Gene-Ping Yang, Yue Gu, Qingming Tang, Dongsu Du, Yuzong Liu
- Abstract要約: オンデバイスキーワードスポッティングのための知識蒸留に基づく自己教師型音声表現学習アーキテクチャを提案する。
私たちのアプローチでは、より大きく複雑なモデルからより小さくて軽量なモデルに知識を移すために、教師中心のフレームワークを使用しました。
我々は、社内データセットを用いて、Alexaキーワードスポッティング検出タスクでモデルの性能を評価した。
- 参考スコア(独自算出の注目度): 13.08005728839078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large self-supervised models are effective feature extractors, but their
application is challenging under on-device budget constraints and biased
dataset collection, especially in keyword spotting. To address this, we
proposed a knowledge distillation-based self-supervised speech representation
learning (S3RL) architecture for on-device keyword spotting. Our approach used
a teacher-student framework to transfer knowledge from a larger, more complex
model to a smaller, light-weight model using dual-view cross-correlation
distillation and the teacher's codebook as learning objectives. We evaluated
our model's performance on an Alexa keyword spotting detection task using a
16.6k-hour in-house dataset. Our technique showed exceptional performance in
normal and noisy conditions, demonstrating the efficacy of knowledge
distillation methods in constructing self-supervised models for keyword
spotting tasks while working within on-device resource constraints.
- Abstract(参考訳): 大きな自己教師付きモデルは効果的な機能抽出器であるが、そのアプリケーションはオンデバイス予算の制約やバイアス付きデータセットの収集、特にキーワードスポッティングの下では困難である。
そこで我々は,オンデバイスキーワードスポッティングのための知識蒸留に基づく自己教師型音声表現学習(S3RL)アーキテクチャを提案する。
提案手法では,より大規模で複雑なモデルから,より小型で軽量なモデルに知識を移すための教師・教師の枠組みを用いて,二重視相互相関蒸留と教師のコードブックを学習対象とした。
我々は、社内データセットを用いて、Alexaキーワードスポッティング検出タスクでモデルの性能を評価した。
本手法は,通常および騒音条件において異常な性能を示し,オンデバイスリソース制約下で作業しながらキーワードスポッティングタスクの自己教師付きモデル構築における知識蒸留法の有効性を示した。
関連論文リスト
- Generative Model-based Feature Knowledge Distillation for Action
Recognition [11.31068233536815]
本稿では,軽量学生モデルの学習のための生成モデルを用いた,革新的な知識蒸留フレームワークについて紹介する。
提案手法の有効性は,多種多様な人気データセットに対する総合的な実験によって実証される。
論文 参考訳(メタデータ) (2023-12-14T03:55:29Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Accelerating exploration and representation learning with offline
pre-training [52.6912479800592]
1つのオフラインデータセットから2つの異なるモデルを別々に学習することで、探索と表現の学習を改善することができることを示す。
ノイズコントラスト推定と補助報酬モデルを用いて状態表現を学習することで、挑戦的なNetHackベンチマークのサンプル効率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2023-03-31T18:03:30Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - Distill on the Go: Online knowledge distillation in self-supervised
learning [1.1470070927586016]
最近の研究では、より広範でより深いモデルは、小さなモデルよりも自己監督学習の恩恵を受けることが示されている。
単段階オンライン知識蒸留を用いた自己指導型学習パラダイムであるDistill-on-the-Go(DoGo)を提案する。
以上の結果から,ノイズラベルや限定ラベルの存在下でのパフォーマンス向上がみられた。
論文 参考訳(メタデータ) (2021-04-20T09:59:23Z) - Anomaly Detection in Video via Self-Supervised and Multi-Task Learning [113.81927544121625]
ビデオにおける異常検出は、コンピュータビジョンの問題である。
本稿では,オブジェクトレベルでの自己教師型およびマルチタスク学習を通じて,ビデオ中の異常事象検出にアプローチする。
論文 参考訳(メタデータ) (2020-11-15T10:21:28Z) - Reinforcement Learning for Sparse-Reward Object-Interaction Tasks in a
First-person Simulated 3D Environment [73.9469267445146]
高忠実な3Dシミュレーション環境において、AI2Thorのような一対一のオブジェクトインタラクションタスクは、強化学習エージェントに顕著なサンプル効率の課題をもたらす。
補助的なタスクとして注意的オブジェクトモデルを学ぶことで、監督なしに、ゼロからオブジェクトインタラクションタスクを学習できることが示される。
論文 参考訳(メタデータ) (2020-10-28T19:27:26Z) - Empowering Knowledge Distillation via Open Set Recognition for Robust 3D
Point Cloud Classification [20.591508284285368]
本稿では,3次元物体認識のための知識蒸留とオープンセット認識の併用学習手法を提案する。
提案手法の有効性を,より小さなモデルを得るための様々な実験により実証する。
論文 参考訳(メタデータ) (2020-10-25T13:26:48Z) - Knowledge Distillation Meets Self-Supervision [109.6400639148393]
知識蒸留では、教師ネットワークから「暗黒の知識」を抽出し、学生ネットワークの学習を指導する。
一見異なる自己超越的なタスクが、単純だが強力なソリューションとして機能することを示します。
これらの自己超越信号の類似性を補助的タスクとして活用することにより、隠された情報を教師から生徒に効果的に転送することができる。
論文 参考訳(メタデータ) (2020-06-12T12:18:52Z) - Reducing Overlearning through Disentangled Representations by
Suppressing Unknown Tasks [8.517620051440005]
視覚的特徴を学習するための既存のディープラーニングアプローチは、手元にあるタスクに必要なものよりも、過剰に学習し、より多くの情報を抽出する傾向がある。
プライバシー保護の観点からは、入力された視覚情報はモデルから保護されない。
未知のタスクを全て抑制することで、モデルオーバーラーニングを減らすためのモデル非依存のソリューションを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:31:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。