論文の概要: Locale Encoding For Scalable Multilingual Keyword Spotting Models
- arxiv url: http://arxiv.org/abs/2302.12961v1
- Date: Sat, 25 Feb 2023 02:20:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 19:44:14.753605
- Title: Locale Encoding For Scalable Multilingual Keyword Spotting Models
- Title(参考訳): スケーラブルな多言語キーワードスポッティングモデルのローカライズ
- Authors: Pai Zhu, Hyun Jin Park, Alex Park, Angelo Scorza Scarpati, Ignacio
Lopez Moreno
- Abstract要約: 局所的特徴連結と特徴量線形変調を持つ2つの局所条件付き普遍モデルを提案する。
FiLMは、類似サイズの単言語KWSモデルと比較して、平均FRRby 61%(相対)で最高の性能を示した。
- 参考スコア(独自算出の注目度): 8.385848547707953
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A Multilingual Keyword Spotting (KWS) system detects spokenkeywords over
multiple locales. Conventional monolingual KWSapproaches do not scale well to
multilingual scenarios because ofhigh development/maintenance costs and lack of
resource sharing.To overcome this limit, we propose two locale-conditioned
universalmodels with locale feature concatenation and feature-wise
linearmodulation (FiLM). We compare these models with two baselinemethods:
locale-specific monolingual KWS, and a single universalmodel trained over all
data. Experiments over 10 localized languagedatasets show that
locale-conditioned models substantially improveaccuracy over baseline methods
across all locales in different noiseconditions.FiLMperformed the best,
improving on average FRRby 61% (relative) compared to monolingual KWS models of
similarsizes.
- Abstract(参考訳): KWS(Multilingual Keyword Spotting)システムは,複数の局所的な音声キーワードを検出する。
従来のモノリンガルなKWSapproachesは、開発・保守コストが高く、リソース共有の欠如のため、多言語シナリオには適さないが、この制限を克服するために、ロケール特徴結合と機能ワイド線形変調(FiLM)を備えた2つの局所条件付きユニバーサルモデルを提案する。
これらのモデルと2つのベースラインメソッドを比較する: locale特有の単言語kwと、すべてのデータに対してトレーニングされた単一のユニバーサルモデルである。
10以上のローカライズド言語データセットを用いた実験により、異なるノイズ条件における全てのローカライズ法に対するローカライズドモデルの精度が大幅に向上し、平均frrby 61% (相対) 向上した。
関連論文リスト
- Improving Spoken Language Identification with Map-Mix [16.40412419504484]
事前学習された多言語XLSRモデルは、目に見えない言語を微調整した後の言語識別をうまく一般化する。
低リソースの方言分類は依然として解決が難しい問題である。
本稿では,個々のデータポイントのモデルトレーニングダイナミクスを活用して,潜時混合のためのサンプリングを改善する新しいデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2023-02-16T11:27:46Z) - Zero-shot Cross-lingual Transfer is Under-specified Optimization [49.3779328255767]
ソース言語単言語モデルとソース+ターゲットバイリンガルモデルとの間の線形補間モデルは、等しく低いソース言語一般化誤差を持つことを示す。
また、ゼロショット解は対象言語誤り一般化曲面の非平坦領域にあり、高い分散を引き起こすことを示した。
論文 参考訳(メタデータ) (2022-07-12T16:49:28Z) - OneAligner: Zero-shot Cross-lingual Transfer with One Rich-Resource
Language Pair for Low-Resource Sentence Retrieval [91.76575626229824]
文検索タスク用に特別に設計されたアライメントモデルであるOneAlignerを提案する。
大規模並列多言語コーパス(OPUS-100)の全ての言語ペアで訓練すると、このモデルは最先端の結果が得られる。
実験結果から,文アライメントタスクの性能はモノリンガルおよび並列データサイズに大きく依存することがわかった。
論文 参考訳(メタデータ) (2022-05-17T19:52:42Z) - Cross-Lingual Text Classification with Multilingual Distillation and
Zero-Shot-Aware Training [21.934439663979663]
多言語事前学習言語モデル(MPLM)に基づくマルチブランチ多言語言語モデル(MBLM)
教師学習フレームワークを用いた高性能単言語モデルからの知識の伝達に基づく方法
2つの言語横断型分類タスクの結果から,MPLMの教師付きデータのみを用いることで,教師付き性能とゼロショット性能が向上することが示された。
論文 参考訳(メタデータ) (2022-02-28T09:51:32Z) - A Conditional Generative Matching Model for Multi-lingual Reply
Suggestion [23.750966630981623]
複数の言語に対応可能な多言語自動応答提案(RS)モデルの問題点について検討する。
本稿では,多言語RSから生じる課題に対処するために,変分オートエンコーダフレームワーク内で最適化された条件付き生成マッチングモデル(CGM)を提案する。
論文 参考訳(メタデータ) (2021-09-15T01:54:41Z) - Unsupervised Domain Adaptation of a Pretrained Cross-Lingual Language
Model [58.27176041092891]
最近の研究は、大規模未ラベルテキストに対する言語間言語モデルの事前学習が、大幅な性能向上をもたらすことを示唆している。
本稿では,絡み合った事前学習した言語間表現からドメイン固有の特徴を自動的に抽出する,教師なし特徴分解手法を提案する。
提案モデルでは、相互情報推定を利用して、言語間モデルによって計算された表現をドメイン不変部分とドメイン固有部分に分解する。
論文 参考訳(メタデータ) (2020-11-23T16:00:42Z) - Cross-lingual Spoken Language Understanding with Regularized
Representation Alignment [71.53159402053392]
外部リソースを使わずに言語間で単語レベルの表現と文レベルの表現を整列する正規化手法を提案する。
言語間言語理解タスクの実験により、我々のモデルは、数ショットとゼロショットの両方のシナリオにおいて、最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-09-30T08:56:53Z) - Parsing with Multilingual BERT, a Small Corpus, and a Small Treebank [46.626315158735615]
事前訓練された多言語文脈表現は大きな成功を収めてきたが、事前訓練されたデータの制限のため、すべての言語品種に等しく適用されない。
このことは、ラベル付き未ラベルデータがモノリンガルモデルを効果的に訓練するにはあまりに限られている、これらのモデルに馴染みのない言語多様体にとっての課題である。
本稿では,低リソース環境に多言語モデルを適用するために,言語固有の事前学習と語彙拡張の利用を提案する。
論文 参考訳(メタデータ) (2020-09-29T16:12:52Z) - XCOPA: A Multilingual Dataset for Causal Commonsense Reasoning [68.57658225995966]
XCOPA (Cross-lingual Choice of Plausible Alternatives) は11言語における因果コモンセンス推論のための多言語データセットである。
提案手法は,翻訳に基づく転送と比較して,現在の手法の性能が低下していることを明らかにする。
論文 参考訳(メタデータ) (2020-05-01T12:22:33Z) - Structure-Level Knowledge Distillation For Multilingual Sequence
Labeling [73.40368222437912]
本稿では,複数の単言語モデルの構造的知識を統一多言語モデル(学生)に蒸留することにより,単言語モデルと統一多言語モデルとのギャップを低減することを提案する。
25のデータセットを用いた4つの多言語タスクの実験により、我々のアプローチはいくつかの強いベースラインを上回り、ベースラインモデルと教師モデルの両方よりも強力なゼロショット一般化性を有することが示された。
論文 参考訳(メタデータ) (2020-04-08T07:14:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。