論文の概要: Call Larisa Ivanovna: Code-Switching Fools Multilingual NLU Models
- arxiv url: http://arxiv.org/abs/2109.14350v1
- Date: Wed, 29 Sep 2021 11:15:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-30 19:22:41.694303
- Title: Call Larisa Ivanovna: Code-Switching Fools Multilingual NLU Models
- Title(参考訳): Larisa Ivanovna氏: コードスイッチングフールは多言語NLUモデルです
- Authors: Alexey Birshert and Ekaterina Artemova
- Abstract要約: NLU(Multilingual natural Language understanding)の新たなベンチマークには、意図とスロットを付加した複数の言語での単言語文が含まれる。
既存のベンチマークでは、文法構造が複雑であるため、収集やラベル付けが困難であるコードスイッチ付き発話が欠如している。
我々の研究は、可塑性で自然な発声音声を生成するための認識された手法を採用し、それらを用いて合成コード発声テストセットを作成する。
- 参考スコア(独自算出の注目度): 1.827510863075184
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Practical needs of developing task-oriented dialogue assistants require the
ability to understand many languages. Novel benchmarks for multilingual natural
language understanding (NLU) include monolingual sentences in several
languages, annotated with intents and slots. In such setup models for
cross-lingual transfer show remarkable performance in joint intent recognition
and slot filling. However, existing benchmarks lack of code-switched
utterances, which are difficult to gather and label due to complexity in the
grammatical structure. The evaluation of NLU models seems biased and limited,
since code-switching is being left out of scope.
Our work adopts recognized methods to generate plausible and
naturally-sounding code-switched utterances and uses them to create a synthetic
code-switched test set. Based on experiments, we report that the
state-of-the-art NLU models are unable to handle code-switching. At worst, the
performance, evaluated by semantic accuracy, drops as low as 15\% from 80\%
across languages. Further we show, that pre-training on synthetic code-mixed
data helps to maintain performance on the proposed test set at a comparable
level with monolingual data. Finally, we analyze different language pairs and
show that the closer the languages are, the better the NLU model handles their
alternation. This is in line with the common understanding of how multilingual
models conduct transferring between languages
- Abstract(参考訳): タスク指向対話アシスタントの開発には、多くの言語を理解する能力が必要である。
NLU(Multilingual natural Language understanding)の新たなベンチマークには、意図とスロットを付加した複数の言語での単言語文が含まれる。
このような言語間移動のセットアップモデルでは、結合意図認識とスロットフィリングにおいて顕著な性能を示す。
しかしながら、既存のベンチマークではコードスイッチによる発話が欠如しており、文法構造が複雑であるため収集やラベル付けが困難である。
NLUモデルの評価は、コードスイッチングがスコープから外されているため、バイアスがあり制限されているように見える。
本研究は, 認識された手法を用いて, 有理で自然に発音されるコード切替発話を生成し, それらを用いて合成コード切替テストセットを作成する。
実験の結果,最先端のNLUモデルではコードスイッチングができないことがわかった。
最悪の場合、セマンティックな精度で評価されたパフォーマンスは、言語全体の80\%から15\%まで低下する。
さらに, 合成符号混合データに対する事前学習は, 単言語データと同等のレベルで, 提案するテストセットの性能維持に寄与することを示した。
最後に、異なる言語ペアを分析して、言語が近いほど、NLUモデルの方が、その変更を処理できることを示す。
これは多言語モデルがどのように言語間の伝達を行うかについての共通理解と一致している。
関連論文リスト
- Understanding and Mitigating Language Confusion in LLMs [76.96033035093204]
我々は,既存の英語および多言語プロンプトを用いた15の型的多様言語の評価を行った。
Llama Instruct と Mistral のモデルでは,言語的混乱の度合いが高いことがわかった。
言語混乱は,数発のプロンプト,多言語SFT,選好調整によって部分的に緩和できることがわかった。
論文 参考訳(メタデータ) (2024-06-28T17:03:51Z) - Simple yet Effective Code-Switching Language Identification with
Multitask Pre-Training and Transfer Learning [0.7242530499990028]
コードスイッチング(Code-switching)は、カジュアルな設定において、多言語話者が異なる言語の単語を1つの発話で混ぜる言語現象である。
英マンダリン言語指向音声データセットにおける言語識別精度向上のための2つの新しいアプローチを提案する。
我々の最良のモデルでは、実際の英マンダリンのコードスイッチングによる子指向音声コーパスにおいて、0.781のバランスの取れた精度を達成し、以前のベースラインを55.3%上回っている。
論文 参考訳(メタデータ) (2023-05-31T11:43:16Z) - Multi-level Contrastive Learning for Cross-lingual Spoken Language
Understanding [90.87454350016121]
コントラスト学習のための難解なサンプルを, あらゆるレベルで生成するコードスイッチング手法を開発した。
言語間知識伝達にラベルセマンティクスを利用するラベル認識ジョイントモデルを開発した。
論文 参考訳(メタデータ) (2022-05-07T13:44:28Z) - Are Multilingual Models Effective in Code-Switching? [57.78477547424949]
多言語モデルの有効性を検討し,複合言語設定の能力と適応性について検討する。
この結果から,事前学習した多言語モデルでは,コードスイッチングにおける高品質な表現が必ずしも保証されないことが示唆された。
論文 参考訳(メタデータ) (2021-03-24T16:20:02Z) - Revisiting Language Encoding in Learning Multilingual Representations [70.01772581545103]
言語埋め込みを置き換えるクロスリンガル言語投影(Cross-lingual Language Projection, XLP)と呼ばれる新しいアプローチを提案する。
XLPは単語埋め込みを言語固有の意味空間に投影し、投影された埋め込みはTransformerモデルに供給される。
実験により、xlpは広範囲の多言語ベンチマークデータセットのモデル性能を自由かつ著しく向上できることが示された。
論文 参考訳(メタデータ) (2021-02-16T18:47:10Z) - X-FACTR: Multilingual Factual Knowledge Retrieval from Pretrained
Language Models [103.75890012041366]
言語モデル(LM)は、事実の知識を捉えるのに驚くほど成功した。
しかし、LMの実際の表現能力の研究は、ほぼ間違いなく英語で行われている。
我々は23の語型的多様言語に対するクローゼスタイルプローブのベンチマークを作成する。
論文 参考訳(メタデータ) (2020-10-13T05:29:56Z) - FILTER: An Enhanced Fusion Method for Cross-lingual Language
Understanding [85.29270319872597]
我々は,XLMファインタニングの入力として言語間データを利用する拡張融合法を提案する。
推論中は、ターゲット言語で入力されたテキストとソース言語の翻訳に基づいて予測を行う。
この問題に対処するため,対象言語における翻訳テキストのための自動生成ソフト擬似ラベルに基づくモデル学習のためのKL分割自己学習損失を提案する。
論文 参考訳(メタデータ) (2020-09-10T22:42:15Z) - GLUECoS : An Evaluation Benchmark for Code-Switched NLP [17.066725832825423]
コード切替言語に対する評価ベンチマーク GLUECoS を提案する。
英語・ヒンディー語・英語・スペイン語におけるNLP課題について報告する。
我々は、人工的に生成されたコード切替データに基づいて、多言語モデルを微調整する。
論文 参考訳(メタデータ) (2020-04-26T13:28:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。