論文の概要: Multilingual and Cross-Lingual Intent Detection from Spoken Data
- arxiv url: http://arxiv.org/abs/2104.08524v1
- Date: Sat, 17 Apr 2021 12:17:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 12:27:10.735413
- Title: Multilingual and Cross-Lingual Intent Detection from Spoken Data
- Title(参考訳): 音声データからの多言語・言語間インテント検出
- Authors: Daniela Gerz, Pei-Hao Su, Razvan Kusztos, Avishek Mondal, Micha{\l}
Lis, Eshan Singhal, Nikola Mrk\v{s}i\'c, Tsung-Hsien Wen, Ivan Vuli\'c
- Abstract要約: MInDS-14は、発話データを用いた意図検出タスクのための最初のトレーニングおよび評価リソースです。
その結果、機械翻訳モデルと最先端の多言語文エンコーダを組み合わせると、強い意図検出ができることがわかった。
この作業は、発話データから多言語インテントディテクタをより包括的に開発および評価するための重要なステップであると考えています。
- 参考スコア(独自算出の注目度): 36.116844659291885
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present a systematic study on multilingual and cross-lingual intent
detection from spoken data. The study leverages a new resource put forth in
this work, termed MInDS-14, a first training and evaluation resource for the
intent detection task with spoken data. It covers 14 intents extracted from a
commercial system in the e-banking domain, associated with spoken examples in
14 diverse language varieties. Our key results indicate that combining machine
translation models with state-of-the-art multilingual sentence encoders (e.g.,
LaBSE) can yield strong intent detectors in the majority of target languages
covered in MInDS-14, and offer comparative analyses across different axes:
e.g., zero-shot versus few-shot learning, translation direction, and impact of
speech recognition. We see this work as an important step towards more
inclusive development and evaluation of multilingual intent detectors from
spoken data, in a much wider spectrum of languages compared to prior work.
- Abstract(参考訳): 本稿では,音声データから多言語間および多言語間インテント検出に関する体系的研究を行う。
この研究は、音声データを用いた意図検出タスクのための最初のトレーニングおよび評価リソースであるminds-14と呼ばれる新しいリソースを活用する。
e-bankingドメインの商用システムから抽出された14の意図をカバーしており、14の多様な言語の例に関連付けられている。
その結果,機械翻訳モデルと最先端の多言語文エンコーダ(例: labse)を組み合わせることで,minds-14の対象言語の大部分において強い意図検出が可能となり,ゼロショットとマイショットの学習,翻訳方向,音声認識の影響など,さまざまな軸間で比較分析を行うことができた。
本研究は, 音声データからの多言語意図検出装置の開発と評価を, 先行研究と比較してはるかに広い範囲で行うための重要なステップであると考えている。
関連論文リスト
- Zero-shot Cross-lingual Transfer Learning with Multiple Source and Target Languages for Information Extraction: Language Selection and Adversarial Training [38.19963761398705]
本稿では,近年のIEコーパスにおける多言語多言語変換可能性(多言語間移動学習)に関する詳細な解析を行う。
まず、単一言語のパフォーマンスと幅広い言語に基づく距離の相関について検討する。
次に,複数の言語が学習・評価プロセスに関与している,より一般的なゼロショット多言語転送設定について検討する。
論文 参考訳(メタデータ) (2024-11-13T17:13:25Z) - Towards a Deep Understanding of Multilingual End-to-End Speech
Translation [52.26739715012842]
我々は22言語以上で訓練された多言語エンドツーエンド音声翻訳モデルで学習した表現を解析する。
我々は分析から3つの大きな発見を得た。
論文 参考訳(メタデータ) (2023-10-31T13:50:55Z) - DN at SemEval-2023 Task 12: Low-Resource Language Text Classification
via Multilingual Pretrained Language Model Fine-tuning [0.0]
感情分析のための既存のモデルやデータセットは、英語や中国語などの高リソース言語向けに開発されている。
AfriSenti-SemEval 2023 Shared Task 12は、低リソースのアフリカの言語に対する感情分析モデルを評価することで、このギャップを埋めることを目的としている。
そこで我々は,多言語XLM-Rモデルを多言語モデルに適用し,様々なデータに基づいて分類ヘッドを訓練した。
論文 参考訳(メタデータ) (2023-05-04T07:28:45Z) - Multilingual Representation Distillation with Contrastive Learning [20.715534360712425]
コントラスト学習を多言語表現蒸留に統合し,並列文の品質評価に利用する。
我々は,多言語類似性探索とコーパスフィルタリングタスクによるアプローチの有効性を検証した。
論文 参考訳(メタデータ) (2022-10-10T22:27:04Z) - IGLUE: A Benchmark for Transfer Learning across Modalities, Tasks, and
Languages [87.5457337866383]
画像認識言語理解評価ベンチマークについて紹介する。
IGLUEは、視覚的質問応答、クロスモーダル検索、グラウンドド推論、20言語にわたるグラウンドドエンターテイメントタスクをまとめて提供する。
翻訳-テストの転送はゼロショットの転送よりも優れており、少数ショットの学習は多くのタスクに役立てることが難しい。
論文 参考訳(メタデータ) (2022-01-27T18:53:22Z) - Few-Shot Cross-Lingual Stance Detection with Sentiment-Based
Pre-Training [32.800766653254634]
本研究は,現在までの言語間スタンス検出に関する最も包括的な研究である。
6つの言語ファミリーの12言語で15の多様なデータセットを使用します。
実験では,新しいラベルエンコーダの追加を提案し,パターン探索トレーニングを構築した。
論文 参考訳(メタデータ) (2021-09-13T15:20:06Z) - A Multilingual Modeling Method for Span-Extraction Reading Comprehension [2.4905424368103444]
XLRCと呼ばれる多言語抽出読解手法を提案する。
我々のモデルはCMRC 2018タスクにおいて最先端のベースライン(RoBERTa_Large)よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-05-31T11:05:30Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z) - Cross-lingual Machine Reading Comprehension with Language Branch
Knowledge Distillation [105.41167108465085]
言語間機械読解(CLMRC)は、ローソース言語に大規模なデータセットがないため、依然として難しい問題である。
本稿では,Language Branch Machine Reading (LBMRC) という新しい拡張手法を提案する。
LBMRCは、個々の言語に精通したMultiple Machine Read comprehension (MRC)モデルを訓練する。
複数の言語分岐モデルから全ての対象言語に対する単一モデルへのアマルガメート知識の多言語蒸留アプローチを考案する。
論文 参考訳(メタデータ) (2020-10-27T13:12:17Z) - XTREME: A Massively Multilingual Multi-task Benchmark for Evaluating
Cross-lingual Generalization [128.37244072182506]
言語間TRansfer Evaluation of Multilinguals XTREMEは、40言語および9タスクにわたる多言語表現の言語間一般化能力を評価するためのベンチマークである。
我々は、英語でテストされたモデルは、多くのタスクにおいて人間のパフォーマンスに達するが、言語間変換されたモデルの性能にはまだ大きなギャップがあることを示した。
論文 参考訳(メタデータ) (2020-03-24T19:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。