論文の概要: HIT-SCIR at MMNLU-22: Consistency Regularization for Multilingual Spoken
Language Understanding
- arxiv url: http://arxiv.org/abs/2301.02010v1
- Date: Thu, 5 Jan 2023 11:21:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 13:49:31.230234
- Title: HIT-SCIR at MMNLU-22: Consistency Regularization for Multilingual Spoken
Language Understanding
- Title(参考訳): mmnlu-22のhit-scir:多言語音声理解のための一貫性規則化
- Authors: Bo Zheng, Zhouyang Li, Fuxuan Wei, Qiguang Chen, Libo Qin, Wanxiang
Che
- Abstract要約: 本稿では,ハイブリッドデータ拡張戦略に基づく一貫性の正則化を提案する。
フルデータセットとゼロショット設定の両方で、MASSIVEデータセット上で実験を行う。
提案手法はインテント検出とスロット充足の両方の性能を向上させる。
- 参考スコア(独自算出の注目度): 56.756090143062536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multilingual spoken language understanding (SLU) consists of two sub-tasks,
namely intent detection and slot filling. To improve the performance of these
two sub-tasks, we propose to use consistency regularization based on a hybrid
data augmentation strategy. The consistency regularization enforces the
predicted distributions for an example and its semantically equivalent
augmentation to be consistent. We conduct experiments on the MASSIVE dataset
under both full-dataset and zero-shot settings. Experimental results
demonstrate that our proposed method improves the performance on both intent
detection and slot filling tasks. Our system\footnote{The code will be
available at \url{https://github.com/bozheng-hit/MMNLU-22-HIT-SCIR}.} ranked
1st in the MMNLU-22 competition under the full-dataset setting.
- Abstract(参考訳): 多言語音声言語理解(SLU)は2つのサブタスク、すなわち意図検出とスロットフィリングから構成される。
これら2つのサブタスクの性能向上のために,ハイブリッドデータ拡張戦略に基づく一貫性の正則化を提案する。
整合正則化は、例の予測分布を強制し、その意味論的に等価な拡張は一貫性を持つ。
フルデータセットとゼロショット設定の両方でMASSIVEデータセット上で実験を行う。
実験の結果,提案手法はインテント検出とスロット充填作業の両方において性能が向上することがわかった。
system\footnote{The code will be available at \url{https://github.com/bozheng-hit/MMNLU-22-HIT-SCIR}.
MMNLU-22ではフルデータセット設定で1位となった。
関連論文リスト
- Towards Spoken Language Understanding via Multi-level Multi-grained Contrastive Learning [50.1035273069458]
音声言語理解(SLU)はタスク指向対話システムにおける中核的なタスクである。
本稿では,発話レベル,スロットレベル,単語レベルを含む3段階のコントラスト学習を実現するためのマルチレベルMMCLフレームワークを提案する。
本フレームワークは,2つの公開マルチインテリジェントSLUデータセットに対して,最先端の新たな結果を実現する。
論文 参考訳(メタデータ) (2024-05-31T14:34:23Z) - Unify word-level and span-level tasks: NJUNLP's Participation for the
WMT2023 Quality Estimation Shared Task [59.46906545506715]
我々は、WMT 2023 Quality Estimation (QE)共有タスクにNJUNLPチームを紹介する。
私たちのチームは2つのサブタスクすべてで英語とドイツ語のペアの予測を提出しました。
我々のモデルは、単語レベルと細粒度エラースパン検出サブタスクの両方において、英語とドイツ語で最高の結果を得た。
論文 参考訳(メタデータ) (2023-09-23T01:52:14Z) - Bridging Cross-Lingual Gaps During Leveraging the Multilingual
Sequence-to-Sequence Pretraining for Text Generation [80.16548523140025]
プレトレインとファインチューンの間のギャップを埋めるために、コードスイッチングの復元タスクを追加して、バニラプレトレイン-ファインチューンパイプラインを拡張します。
提案手法は,言語間文表現距離を狭くし,簡単な計算コストで低周波語翻訳を改善する。
論文 参考訳(メタデータ) (2022-04-16T16:08:38Z) - A Joint and Domain-Adaptive Approach to Spoken Language Understanding [30.164751046395573]
Spoken Language Understanding (SLU)は、インテント検出(ID)とスロットフィリング(SF)の2つのサブタスクで構成されている。
1つはこれらの2つのサブタスクに共同で取り組み、予測精度を改善し、もう1つはサブタスクの1つのドメイン適応能力に焦点を当てる。
本稿では,SLUに対する結合型および領域適応型アプローチを提案する。
論文 参考訳(メタデータ) (2021-07-25T09:38:42Z) - Consistency Regularization for Cross-Lingual Fine-Tuning [61.08704789561351]
整合性正規化による言語間微調整の改善を提案する。
具体的には、例の整合性正規化を用いて、予測感度を4種類のデータ拡張にペナルティ化する。
XTREMEベンチマークの実験結果から,本手法は様々なタスクにおける言語間微調整を大幅に改善することが示された。
論文 参考訳(メタデータ) (2021-06-15T15:35:44Z) - MCL@IITK at SemEval-2021 Task 2: Multilingual and Cross-lingual
Word-in-Context Disambiguation using Augmented Data, Signals, and
Transformers [1.869621561196521]
我々はSemEval 2021 Task 2: Multilingual and cross-lingual Word-in-Context Disambiguation (MCL-WiC) の解法を提案する。
目的は、両方の文に共通する単語が同じ意味を引き起こすかどうかを検出することである。
多言語とクロスリンガルの両方の設定のためのシステムを提出します。
論文 参考訳(メタデータ) (2021-04-04T08:49:28Z) - Explicit Alignment Objectives for Multilingual Bidirectional Encoders [111.65322283420805]
本稿では,多言語エンコーダAMBER(Aligned Multilingual Bi-directional EncodeR)の学習方法を提案する。
AMBERは、異なる粒度で多言語表現を整列する2つの明示的なアライメント目標を使用して、追加の並列データに基づいて訓練される。
実験結果から、AMBERは、シーケンスタグ付けで1.1平均F1スコア、XLMR-大規模モデル上での検索で27.3平均精度を得ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T18:34:13Z) - Dual Learning for Semi-Supervised Natural Language Understanding [29.692288627633374]
自然言語理解(NLU)は、文を構造化意味形式に変換する。
NLU, semantic-to-sentence generation (SSG) の2つのタスクを導入する。
本稿では,対応する2つのモデルを用いた半教師付きNLUのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-26T07:17:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。