論文の概要: Cross-lingual Spoken Language Understanding with Regularized
Representation Alignment
- arxiv url: http://arxiv.org/abs/2009.14510v1
- Date: Wed, 30 Sep 2020 08:56:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 22:34:20.793325
- Title: Cross-lingual Spoken Language Understanding with Regularized
Representation Alignment
- Title(参考訳): 正規化表現アライメントを用いた言語間理解
- Authors: Zihan Liu, Genta Indra Winata, Peng Xu, Zhaojiang Lin, Pascale Fung
- Abstract要約: 外部リソースを使わずに言語間で単語レベルの表現と文レベルの表現を整列する正規化手法を提案する。
言語間言語理解タスクの実験により、我々のモデルは、数ショットとゼロショットの両方のシナリオにおいて、最先端の手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 71.53159402053392
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the promising results of current cross-lingual models for spoken
language understanding systems, they still suffer from imperfect cross-lingual
representation alignments between the source and target languages, which makes
the performance sub-optimal. To cope with this issue, we propose a
regularization approach to further align word-level and sentence-level
representations across languages without any external resource. First, we
regularize the representation of user utterances based on their corresponding
labels. Second, we regularize the latent variable model (Liu et al., 2019) by
leveraging adversarial training to disentangle the latent variables.
Experiments on the cross-lingual spoken language understanding task show that
our model outperforms current state-of-the-art methods in both few-shot and
zero-shot scenarios, and our model, trained on a few-shot setting with only 3\%
of the target language training data, achieves comparable performance to the
supervised training with all the training data.
- Abstract(参考訳): 現在の音声言語理解システムにおける言語間モデルの有望な結果にもかかわらず、ソースとターゲット言語間の不完全な言語間表現アライメントに悩まされ、パフォーマンスが準最適となる。
この問題に対処するため,外部リソースを使わずに,言語間の単語レベルおよび文レベルの表現をさらに整合させる正規化手法を提案する。
まず,対応するラベルに基づいてユーザ発話の表現を規則化する。
第2に,潜在変数モデル (liu et al., 2019) を,潜在変数の絡み合いを回避すべく,敵対的トレーニングを活用して定式化する。
クロスランゲージ言語理解タスクの実験により,我々のモデルがマイトショットシナリオとゼロショットシナリオの両方において最先端の手法を上回っており,対象言語トレーニングデータの3-%しか持たない数ショット設定でトレーニングされたモデルが,すべてのトレーニングデータで教師あり訓練と同等の性能を達成していることが示された。
関連論文リスト
- Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - The Interpreter Understands Your Meaning: End-to-end Spoken Language
Understanding Aided by Speech Translation [13.352795145385645]
音声翻訳(ST)は、エンドツーエンドの音声言語理解のために、音声モデルを事前訓練する良い方法である。
我々は,本モデルが単言語および多言語意図分類に基づくベースラインよりも高い性能を達成することを示す。
また、音声要約のための新しいベンチマークデータセットを作成し、低リソース/ゼロショットを英語からフランス語またはスペイン語に転送する。
論文 参考訳(メタデータ) (2023-05-16T17:53:03Z) - Cross-Align: Modeling Deep Cross-lingual Interactions for Word Alignment [63.0407314271459]
提案したCross-Alignは、5つの言語ペアのうち4つで最先端(SOTA)のパフォーマンスを達成する。
実験の結果,提案したCross-Alignは5つの言語ペアのうち4つで最先端(SOTA)のパフォーマンスを達成することがわかった。
論文 参考訳(メタデータ) (2022-10-09T02:24:35Z) - Improving the Cross-Lingual Generalisation in Visual Question Answering [40.86774711775718]
多言語視覚言語事前学習モデルは、非英語データに適用した場合、言語間一般化が不十分であることを示す。
本研究は、ゼロショット言語間視覚質問応答(VQA)タスクにおいて、これらのモデルの低性能について検討する。
我々は,(1)類似性に基づく損失によるクロスエントロピー損失を増大させる言語的事前目標を導入し,トレーニング中にモデルを導くこと,(2)言語的一般化を改善し,モデルの修正を伴わずに分散を低減するタスク固有のサブネットワークを学習すること,(3)合成コードを用いたトレーニング例を強化すること,の3つの戦略を用いて言語的事前移動を改善する。
論文 参考訳(メタデータ) (2022-09-07T08:07:43Z) - Bridging the Gap between Language Models and Cross-Lingual Sequence
Labeling [101.74165219364264]
大規模言語間事前学習言語モデル (xPLM) は、言語間シーケンスラベリングタスクにおいて有効であることを示す。
大きな成功にもかかわらず、事前学習と微調整の段階の間には訓練対象のギャップがあるという経験的観察を描いている。
本稿では,まず,言語間インフォーマティブ・スパン・マスキング(CLISM)と呼ばれるxSLのための事前学習タスクを設計し,目的のギャップを解消する。
第2に、コントラスト学習を利用して入力並列表現間の一貫性を促進するContrAstive-Consistency Regularization (CACR)を提案する。
論文 参考訳(メタデータ) (2022-04-11T15:55:20Z) - Specializing Multilingual Language Models: An Empirical Study [50.7526245872855]
事前訓練された多言語モデルからの文脈化語表現は、自然言語タスクに対処するデファクトスタンダードとなっている。
これらのモデルではまれに、あるいは一度も見られない言語では、そのようなモデルを直接使用すると、最適な表現やデータの使用につながることが多い。
論文 参考訳(メタデータ) (2021-06-16T18:13:55Z) - InfoXLM: An Information-Theoretic Framework for Cross-Lingual Language
Model Pre-Training [135.12061144759517]
本稿では,言語間言語モデルの事前学習を定式化する情報理論フレームワークを提案する。
コントラスト学習に基づく新しい事前学習課題を提案する。
単言語コーパスと並列コーパスの両方を活用することで、事前訓練されたモデルの言語間変換性を向上させるために、プレテキストを共同で訓練する。
論文 参考訳(メタデータ) (2020-07-15T16:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。