論文の概要: Improving Spoken Language Identification with Map-Mix
- arxiv url: http://arxiv.org/abs/2302.08229v1
- Date: Thu, 16 Feb 2023 11:27:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-17 14:07:49.105695
- Title: Improving Spoken Language Identification with Map-Mix
- Title(参考訳): Map-Mixによる音声言語識別の改善
- Authors: Shangeth Rajaa, Kriti Anandan, Swaraj Dalmia, Tarun Gupta, Eng Siong
Chng
- Abstract要約: 事前学習された多言語XLSRモデルは、目に見えない言語を微調整した後の言語識別をうまく一般化する。
低リソースの方言分類は依然として解決が難しい問題である。
本稿では,個々のデータポイントのモデルトレーニングダイナミクスを活用して,潜時混合のためのサンプリングを改善する新しいデータ拡張手法を提案する。
- 参考スコア(独自算出の注目度): 16.40412419504484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The pre-trained multi-lingual XLSR model generalizes well for language
identification after fine-tuning on unseen languages. However, the performance
significantly degrades when the languages are not very distinct from each
other, for example, in the case of dialects. Low resource dialect
classification remains a challenging problem to solve. We present a new data
augmentation method that leverages model training dynamics of individual data
points to improve sampling for latent mixup. The method works well in
low-resource settings where generalization is paramount. Our datamaps-based
mixup technique, which we call Map-Mix improves weighted F1 scores by 2%
compared to the random mixup baseline and results in a significantly
well-calibrated model. The code for our method is open sourced on
https://github.com/skit-ai/Map-Mix.
- Abstract(参考訳): 事前訓練された多言語xlsrモデルは、未熟な言語を微調整した後の言語識別をうまく一般化する。
しかし、例えば方言の場合、言語が互いにあまり区別されていない場合、パフォーマンスは著しく低下する。
低資源方言分類は依然として解決が難しい課題である。
本稿では,個々のデータポイントのモデルトレーニングダイナミクスを活用し,潜時混合のためのサンプリングを改善する新しいデータ拡張手法を提案する。
この方法は、一般化が最重要となる低リソース設定でうまく機能する。
Map-Mixと呼ばれるデータマップベースのミックスアップ手法は、ランダムなミックスアップベースラインと比較して、重み付けされたF1スコアを2%改善し、極めてよく校正されたモデルをもたらす。
我々のメソッドのコードはhttps://github.com/skit-ai/Map-Mix.comで公開されている。
関連論文リスト
- Optimal Transport Posterior Alignment for Cross-lingual Semantic Parsing [68.47787275021567]
言語間のセマンティックパーシングは、高いソース言語(例えば英語)から少ないトレーニングデータを持つ低リソース言語へのパーシング能力を伝達する。
そこで本稿では,最適輸送を用いた係り受け変数間の言語間相違を明示的に最小化することで,言語間セマンティック解析のための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-09T04:52:31Z) - Locale Encoding For Scalable Multilingual Keyword Spotting Models [8.385848547707953]
局所的特徴連結と特徴量線形変調を持つ2つの局所条件付き普遍モデルを提案する。
FiLMは、類似サイズの単言語KWSモデルと比較して、平均FRRby 61%(相対)で最高の性能を示した。
論文 参考訳(メタデータ) (2023-02-25T02:20:59Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - mFACE: Multilingual Summarization with Factual Consistency Evaluation [79.60172087719356]
抽象的な要約は、事前訓練された言語モデルと大規模データセットの可用性のおかげで、近年で新たな関心を集めている。
有望な結果にもかかわらず、現在のモデルはいまだに現実的に矛盾した要約を生み出すことに苦しむ。
事実整合性評価モデルを利用して、多言語要約を改善する。
論文 参考訳(メタデータ) (2022-12-20T19:52:41Z) - Non-Linear Pairwise Language Mappings for Low-Resource Multilingual
Acoustic Model Fusion [26.728287476234538]
ハイブリッドDNN-HMM音響モデル融合は低リソース言語のための多言語構成で提案される。
異なる単言語音響モデルから対象言語音声信号に対する後部分布を融合する。
ソースターゲット言語ペア毎に別々の回帰ニューラルネットワークをトレーニングし、ソースアコースティックモデルからターゲット言語へ後部を変換する。
論文 参考訳(メタデータ) (2022-07-07T15:56:50Z) - OneAligner: Zero-shot Cross-lingual Transfer with One Rich-Resource
Language Pair for Low-Resource Sentence Retrieval [91.76575626229824]
文検索タスク用に特別に設計されたアライメントモデルであるOneAlignerを提案する。
大規模並列多言語コーパス(OPUS-100)の全ての言語ペアで訓練すると、このモデルは最先端の結果が得られる。
実験結果から,文アライメントタスクの性能はモノリンガルおよび並列データサイズに大きく依存することがわかった。
論文 参考訳(メタデータ) (2022-05-17T19:52:42Z) - From Good to Best: Two-Stage Training for Cross-lingual Machine Reading
Comprehension [51.953428342923885]
モデル性能を向上させるための2段階のアプローチを開発する。
我々は、トップk予測が正確な答えを含む確率を最大化するために、ハードラーニング(HL)アルゴリズムを設計する。
第2段階では, 正解と他の候補との微妙な違いを学習するために, 解答を意識したコントラスト学習機構が開発された。
論文 参考訳(メタデータ) (2021-12-09T07:31:15Z) - Cross-lingual alignments of ELMo contextual embeddings [0.0]
言語間埋め込みは、低リソース言語から高リソース言語への単語の埋め込みをマッピングする。
最近の文脈埋め込みの言語間マッピングを作成するには、埋め込み空間間のアンカーポイントは、同じ文脈における単語でなければならない。
ELMo埋め込みのための新しい言語間マッピング手法を提案する。
論文 参考訳(メタデータ) (2021-06-30T11:26:43Z) - Code Switching Language Model Using Monolingual Training Data [0.0]
単言語データのみを使用したコードスイッチング(cs)言語モデルのトレーニングはまだ研究中である。
この研究では、RNN言語モデルは、単言語英語とスペイン語のデータのみから代替バッチを使用して訓練される。
結果はRNNベースの言語モデルの出力埋め込みにおいて平均二乗誤差(MSE)を用いて一貫して改善された。
論文 参考訳(メタデータ) (2020-12-23T08:56:39Z) - Comparison of Interactive Knowledge Base Spelling Correction Models for
Low-Resource Languages [81.90356787324481]
低リソース言語に対する正規化の推進は、パターンの予測が難しいため、難しい作業である。
この研究は、ターゲット言語データに様々な量を持つニューラルモデルとキャラクタ言語モデルの比較を示す。
我々の利用シナリオは、ほぼゼロのトレーニング例によるインタラクティブな修正であり、より多くのデータが収集されるにつれてモデルを改善する。
論文 参考訳(メタデータ) (2020-10-20T17:31:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。