論文の概要: Multilingual Transfer Learning for Code-Switched Language and Speech
Neural Modeling
- arxiv url: http://arxiv.org/abs/2104.06268v1
- Date: Tue, 13 Apr 2021 14:49:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 13:40:40.358431
- Title: Multilingual Transfer Learning for Code-Switched Language and Speech
Neural Modeling
- Title(参考訳): コードスイッチ言語と音声ニューラルモデリングのための多言語トランスファー学習
- Authors: Genta Indra Winata
- Abstract要約: 本稿では,言語非依存なマルチタスク学習手法を提案することにより,言語理論のデータ不足と限界に対処する。
まず,メタラーニングに基づくメタトランスファー学習を提案する。そこでは,高音源単言語音声データから,コードスイッチング領域への情報抽出を行う。
第2に,他の言語で学習した有用な知識を得ることにより,コードスイッチングデータを効果的に表現するための,多言語メタエム手法を提案する。
第3に,言語モデルへの伝達学習戦略として構文情報を統合するために,マルチタスク学習を導入する。
- 参考スコア(独自算出の注目度): 12.497781134446898
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this thesis, we address the data scarcity and limitations of linguistic
theory by proposing language-agnostic multi-task training methods. First, we
introduce a meta-learning-based approach, meta-transfer learning, in which
information is judiciously extracted from high-resource monolingual speech data
to the code-switching domain. The meta-transfer learning quickly adapts the
model to the code-switching task from a number of monolingual tasks by learning
to learn in a multi-task learning fashion. Second, we propose a novel
multilingual meta-embeddings approach to effectively represent code-switching
data by acquiring useful knowledge learned in other languages, learning the
commonalities of closely related languages and leveraging lexical composition.
The method is far more efficient compared to contextualized pre-trained
multilingual models. Third, we introduce multi-task learning to integrate
syntactic information as a transfer learning strategy to a language model and
learn where to code-switch. To further alleviate the aforementioned issues, we
propose a data augmentation method using Pointer-Gen, a neural network using a
copy mechanism to teach the model the code-switch points from monolingual
parallel sentences. We disentangle the need for linguistic theory, and the
model captures code-switching points by attending to input words and aligning
the parallel words, without requiring any word alignments or constituency
parsers. More importantly, the model can be effectively used for languages that
are syntactically different, and it outperforms the linguistic theory-based
models.
- Abstract(参考訳): 本稿では,言語非依存なマルチタスク学習手法を提案することにより,言語理論のデータ不足と限界に対処する。
まず,メタラーニングに基づくメタトランスファー学習を提案する。そこでは,高音源単言語音声データから,コードスイッチング領域への情報抽出を行う。
メタトランスファー学習は、マルチタスク学習方式で学習することで、複数の単言語タスクからコードスイッチングタスクにモデルを迅速に適応させる。
第2に,他言語で学習した有用な知識を入手し,関連する言語の共通性を学習し,語彙構成を活用し,コードスイッチングデータを効果的に表現する,新しい多言語メタ埋め込み手法を提案する。
この方法は、文脈的に事前訓練された多言語モデルと比較してはるかに効率的である。
第3に,言語モデルへの伝達学習戦略として構文情報を統合するために,マルチタスク学習を導入する。
上記の問題をさらに緩和するために,単言語並列文からコードスイッチポイントをモデルに教えるために,コピー機構を用いたニューラルネットワークであるpointer-genを用いたデータ拡張法を提案する。
言語理論の必要性を解消し、入力語に参画し、パラレル語をアライメントすることで、単語アライメントや選挙区パーサーを必要とせずにコードスイッチングポイントを捕捉する。
さらに重要なことに、このモデルは構文的に異なる言語に効果的に使用することができ、言語理論に基づくモデルよりも優れている。
関連論文リスト
- Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - Simple yet Effective Code-Switching Language Identification with
Multitask Pre-Training and Transfer Learning [0.7242530499990028]
コードスイッチング(Code-switching)は、カジュアルな設定において、多言語話者が異なる言語の単語を1つの発話で混ぜる言語現象である。
英マンダリン言語指向音声データセットにおける言語識別精度向上のための2つの新しいアプローチを提案する。
我々の最良のモデルでは、実際の英マンダリンのコードスイッチングによる子指向音声コーパスにおいて、0.781のバランスの取れた精度を達成し、以前のベースラインを55.3%上回っている。
論文 参考訳(メタデータ) (2023-05-31T11:43:16Z) - On the cross-lingual transferability of multilingual prototypical models
across NLU tasks [2.44288434255221]
教師付きディープラーニングベースのアプローチはタスク指向のダイアログに適用され、限られたドメインや言語アプリケーションに有効であることが証明されている。
実際には、これらのアプローチはドメイン駆動設計とアンダーリソース言語の欠点に悩まされている。
本稿では,原型ニューラルネットワークと多言語トランスフォーマーモデルを用いた相乗的少数ショット学習の言語間変換可能性について検討する。
論文 参考訳(メタデータ) (2022-07-19T09:55:04Z) - MetaTPTrans: A Meta Learning Approach for Multilingual Code
Representation Learning [5.434698132994918]
多言語コード表現学習のためのメタ学習手法であるMetaTPTransを提案する。
本稿では,MetaTPTransが最先端アプローチのF1スコアを大幅に改善することを示す。
論文 参考訳(メタデータ) (2022-06-13T20:36:42Z) - Exploring Teacher-Student Learning Approach for Multi-lingual
Speech-to-Intent Classification [73.5497360800395]
複数の言語をサポートするエンドツーエンドシステムを開発した。
我々は、事前訓練された多言語自然言語処理モデルからの知識を利用する。
論文 参考訳(メタデータ) (2021-09-28T04:43:11Z) - Are Multilingual Models Effective in Code-Switching? [57.78477547424949]
多言語モデルの有効性を検討し,複合言語設定の能力と適応性について検討する。
この結果から,事前学習した多言語モデルでは,コードスイッチングにおける高品質な表現が必ずしも保証されないことが示唆された。
論文 参考訳(メタデータ) (2021-03-24T16:20:02Z) - InfoXLM: An Information-Theoretic Framework for Cross-Lingual Language
Model Pre-Training [135.12061144759517]
本稿では,言語間言語モデルの事前学習を定式化する情報理論フレームワークを提案する。
コントラスト学習に基づく新しい事前学習課題を提案する。
単言語コーパスと並列コーパスの両方を活用することで、事前訓練されたモデルの言語間変換性を向上させるために、プレテキストを共同で訓練する。
論文 参考訳(メタデータ) (2020-07-15T16:58:01Z) - Bridging Linguistic Typology and Multilingual Machine Translation with
Multi-View Language Representations [83.27475281544868]
特異ベクトル標準相関解析を用いて、各情報源からどのような情報が誘導されるかを調べる。
我々の表現は類型学を組み込み、言語関係と相関関係を強化する。
次に、多言語機械翻訳のための多視点言語ベクトル空間を利用して、競合する全体的な翻訳精度を実現する。
論文 参考訳(メタデータ) (2020-04-30T16:25:39Z) - Meta-Transfer Learning for Code-Switched Speech Recognition [72.84247387728999]
低リソース環境下でのコード切替音声認識システムにおける学習を伝達するメタトランスファー学習法を提案する。
本モデルでは,コードスイッチングデータに最適化を条件付けることにより,個々の言語を識別し,混合言語音声をよりよく認識できるように変換する。
論文 参考訳(メタデータ) (2020-04-29T14:27:19Z) - Zero-Shot Cross-Lingual Transfer with Meta Learning [45.29398184889296]
英語以外の言語ではほとんど、あるいは全くデータがない場合に、複数の言語でのトレーニングモデルの設定を同時に検討する。
メタラーニングを用いて、この挑戦的な設定にアプローチできることが示される。
我々は、標準教師付きゼロショットのクロスランガルと、異なる自然言語理解タスクのための数ショットのクロスランガル設定を用いて実験を行った。
論文 参考訳(メタデータ) (2020-03-05T16:07:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。