論文の概要: Multilingual and Multilabel Emotion Recognition using Virtual
Adversarial Training
- arxiv url: http://arxiv.org/abs/2111.06181v1
- Date: Thu, 11 Nov 2021 12:47:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-12 18:43:44.204799
- Title: Multilingual and Multilabel Emotion Recognition using Virtual
Adversarial Training
- Title(参考訳): Virtual Adversarial Training を用いた多言語・多言語感情認識
- Authors: Vikram Gupta
- Abstract要約: マルチラベル感情認識のためのVATについて検討し,モデル性能を向上させるために,異なる言語からの未ラベルデータを活用することに焦点を当てた。
また,同量のラベル付きデータを用いた教師付き学習では,6.2%(アラビア語),3.8%(スペイン語),1.8%(英語)のパフォーマンス向上が見られた。
また、スペイン語、アラビア語、英語の既存の最先端を、それぞれ7%、4.5%、1%(ジャカード指数)で改善する。
- 参考スコア(独自算出の注目度): 0.76146285961466
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Virtual Adversarial Training (VAT) has been effective in learning robust
models under supervised and semi-supervised settings for both computer vision
and NLP tasks. However, the efficacy of VAT for multilingual and multilabel
text classification has not been explored before. In this work, we explore VAT
for multilabel emotion recognition with a focus on leveraging unlabelled data
from different languages to improve the model performance. We perform extensive
semi-supervised experiments on SemEval2018 multilabel and multilingual emotion
recognition dataset and show performance gains of 6.2% (Arabic), 3.8% (Spanish)
and 1.8% (English) over supervised learning with same amount of labelled data
(10% of training data). We also improve the existing state-of-the-art by 7%,
4.5% and 1% (Jaccard Index) for Spanish, Arabic and English respectively and
perform probing experiments for understanding the impact of different layers of
the contextual models.
- Abstract(参考訳): VAT(Virtual Adversarial Training)は、コンピュータビジョンとNLPタスクの両方の教師付きおよび半教師付き設定の下で堅牢なモデルを学ぶのに有効である。
しかし,多言語・多音節のテキスト分類におけるvatの有効性はこれまでに検討されていない。
本研究では、異なる言語からの未ラベルデータを活用してモデル性能を向上させるマルチラベル感情認識のためのVATについて検討する。
我々はSemEval2018マルチラベルと多言語感情認識データセットに関する広範な半教師付き実験を行い、同じラベル付きデータ(トレーニングデータの10%)による教師付き学習よりも6.2%(アラビア語)、3.8%(スペイン語)、1.8%(英語)のパフォーマンス向上を示した。
また,既存の現状をスペイン語,アラビア語,英語でそれぞれ7%,4.5%,1%(ジャカード指数)で改善し,文脈モデルの異なる層の影響を理解するための探索実験を行った。
関連論文リスト
- Exploring Multilingual Unseen Speaker Emotion Recognition: Leveraging Co-Attention Cues in Multitask Learning [4.396042489971948]
本稿では,コアテンションに基づく融合とマルチタスク学習を活用した新しいアーキテクチャであるCAMuLeNetを紹介する。
我々は,Whisper, HuBERT, Wav2Vec2.0, WavLMの事前訓練エンコーダを,既存の5つのマルチ言語ベンチマークデータセット上で10倍の相互検証を用いてベンチマークした。
CAMuLeNetは、我々のクロスバリデーション戦略によって決定された未確認話者のベンチマークを平均8%改善したことを示している。
論文 参考訳(メタデータ) (2024-06-13T09:00:14Z) - Multilingual Diversity Improves Vision-Language Representations [66.41030381363244]
このデータセットの事前トレーニングは、ImageNet上で英語のみまたは英語が支配するデータセットを使用してパフォーマンスが向上する。
GeoDEのような地理的に多様なタスクでは、アフリカから得られる最大の利益とともに、すべての地域における改善も観察します。
論文 参考訳(メタデータ) (2024-05-27T08:08:51Z) - Comparative Analysis of Multilingual Text Classification &
Identification through Deep Learning and Embedding Visualization [0.0]
この研究では、17の言語を含むデータセットにLangDetect、LangId、FastText、Sentence Transformerを採用している。
FastText多層パーセプトロンモデルは、精度、精度、リコール、F1スコアを達成し、Sentence Transformerモデルを上回った。
論文 参考訳(メタデータ) (2023-12-06T12:03:27Z) - Breaking Language Barriers in Multilingual Mathematical Reasoning: Insights and Observations [59.056367787688146]
本稿では, マルチリンガル数学推論 (xMR) LLM の探索と学習の先駆者である。
我々は10の異なる言語を含む最初の多言語数学推論命令データセットMGSM8KInstructを構築した。
翻訳を利用して、10個の異なる言語を含む最初の多言語数学推論命令データセットMGSM8KInstructを構築した。
論文 参考訳(メタデータ) (2023-10-31T08:09:20Z) - Sample Efficient Approaches for Idiomaticity Detection [6.481818246474555]
本研究は, 慣用性検出の効率的な手法を探索する。
特に,いくつかの分類法であるPET(Pattern Exploit Training)と,文脈埋め込みの効率的な方法であるBERTRAM(BERTRAM)の影響について検討した。
実験の結果,PETは英語のパフォーマンスを向上するが,ポルトガル語やガリシア語では効果が低下し,バニラmBERTと同程度の総合的な性能が得られた。
論文 参考訳(メタデータ) (2022-05-23T13:46:35Z) - Unified Contrastive Learning in Image-Text-Label Space [130.31947133453406]
Unified Contrastive Learning (UniCL)は、意味的に豊かだが差別的な表現を学習する効果的な方法である。
UniCLスタンドアローンは、3つの画像分類データセットにまたがる教師あり学習手法に対抗して、純粋な画像ラベルデータに関する優れた学習者である。
論文 参考訳(メタデータ) (2022-04-07T17:34:51Z) - Revisiting Self-Training for Few-Shot Learning of Language Model [61.173976954360334]
ラベル付きデータにはタスク関連情報が豊富に含まれており、言語モデルの素早い学習に有用であることが証明されている。
本研究では,言語モデルファインチューニングのための自己学習手法を再検討し,最先端のプロンプトベースの少ショット学習者,SFLMを提案する。
論文 参考訳(メタデータ) (2021-10-04T08:51:36Z) - Improved Language Identification Through Cross-Lingual Self-Supervised
Learning [37.32193095549614]
我々は、事前訓練されたモデルを用いて、言語識別に関する以前の自己教師型研究を拡張した。
25言語のセットアップ結果から、言語毎にラベル付きデータの10分で、言語横断的に事前訓練されたモデルが93%以上の精度を達成できることが示された。
論文 参考訳(メタデータ) (2021-07-08T19:37:06Z) - Cross-lingual Emotion Detection [6.767035411834297]
我々は英語をアラビア語とスペイン語をターゲット言語とする原語とみなしている。
対象言語データに基づいてトレーニングされたBERTベースのモノリンガルモデルは,それぞれアラビア語とスペイン語の絶対ジャカードスコアを4%上回り,SOTA(State-of-the-art)を5%上回りました。
次に、英語データのみを用いた言語間アプローチを用いることで、アラビア語とスペイン語のBERTモデルの90%以上と80%以上の相対的有効性を達成できることを示す。
論文 参考訳(メタデータ) (2021-06-10T19:52:06Z) - Leveraging Adversarial Training in Self-Learning for Cross-Lingual Text
Classification [52.69730591919885]
本稿では,ラベル保存型入力摂動の最大損失を最小限に抑える半教師付き対向学習法を提案する。
多様な言語群に対する文書分類と意図分類において,有効性が著しく向上するのを観察する。
論文 参考訳(メタデータ) (2020-07-29T19:38:35Z) - A Study of Cross-Lingual Ability and Language-specific Information in
Multilingual BERT [60.9051207862378]
Multilingual BERTは、言語間転送タスクで驚くほどうまく機能します。
データサイズとコンテキストウィンドウサイズは、転送可能性にとって重要な要素です。
多言語BERTの言語間能力を改善するために、計算的に安価だが効果的なアプローチがある。
論文 参考訳(メタデータ) (2020-04-20T11:13:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。