論文の概要: kk2018 at SemEval-2020 Task 9: Adversarial Training for Code-Mixing
Sentiment Classification
- arxiv url: http://arxiv.org/abs/2009.03673v2
- Date: Wed, 9 Sep 2020 02:20:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 21:13:21.982931
- Title: kk2018 at SemEval-2020 Task 9: Adversarial Training for Code-Mixing
Sentiment Classification
- Title(参考訳): kk2018 at SemEval-2020 Task 9: Adversarial Training for Code-Mixing Sentiment Classification
- Authors: Jiaxiang Liu, Xuyi Chen, Shikun Feng, Shuohuan Wang, Xuan Ouyang, Yu
Sun, Zhengjie Huang, Weiyue Su
- Abstract要約: コードスイッチング(英: Code switch)とは、話者が複数の言語を共有する多言語環境において発生する言語現象である。
本研究では、コードミキシングデータセット上で、最先端のユニ言語モデルERNIEからのドメイン転送学習をテストする。
多言語モデルによる対戦訓練は、セムヴァル2020タスク9ヒンディー語の感情分類競技の第1位を達成するために使用される。
- 参考スコア(独自算出の注目度): 18.41476971318978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Code switching is a linguistic phenomenon that may occur within a
multilingual setting where speakers share more than one language. With the
increasing communication between groups with different languages, this
phenomenon is more and more popular. However, there are little research and
data in this area, especially in code-mixing sentiment classification. In this
work, the domain transfer learning from state-of-the-art uni-language model
ERNIE is tested on the code-mixing dataset, and surprisingly, a strong baseline
is achieved. Furthermore, the adversarial training with a multi-lingual model
is used to achieve 1st place of SemEval-2020 Task 9 Hindi-English sentiment
classification competition.
- Abstract(参考訳): コードスイッチング(code switching)は、話者が複数の言語を共有する多言語環境で発生する言語現象である。
異なる言語を持つグループ間のコミュニケーションが増加するにつれ、この現象はますます人気が高まっている。
しかし、この領域では、特にコード混合感情分類における研究やデータはほとんどない。
本研究では,最先端のユニ言語モデルであるernieからドメイン転送学習をコード混合データセット上でテストし,驚くべきことに,強力なベースラインを実現する。
さらに、多言語モデルによる敵意訓練を用いて、2020年度第9次ヒンディー語英語感情分類コンペティションの第1位を得る。
関連論文リスト
- cantnlp@LT-EDI-2023: Homophobia/Transphobia Detection in Social Media
Comments using Spatio-Temporally Retrained Language Models [0.9012198585960441]
本稿ではLTERAN@LP-2023共有タスクの一部として開発されたマルチクラス分類システムについて述べる。
我々は、BERTに基づく言語モデルを用いて、5つの言語条件におけるソーシャルメディアコメントにおけるホモフォビックおよびトランスフォビックな内容を検出する。
重み付きマクロ平均F1スコアに基づくマラヤラムの7ラベル分類システムを開発した。
論文 参考訳(メタデータ) (2023-08-20T21:30:34Z) - T3L: Translate-and-Test Transfer Learning for Cross-Lingual Text
Classification [50.675552118811]
言語間テキスト分類は通常、様々な言語で事前訓練された大規模多言語言語モデル(LM)に基づいて構築される。
本稿では,古典的な「翻訳とテスト」パイプラインを再考し,翻訳と分類の段階を適切に分離することを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:33:22Z) - Adversarial synthesis based data-augmentation for code-switched spoken
language identification [0.0]
音声言語識別(LID)は自動音声認識(ASR)の重要なサブタスクである
本研究は、英語と混在するIndic言語に焦点をあてる。
Mel Spectrograms を用いたGANに基づく音声データの拡張手法
論文 参考訳(メタデータ) (2022-05-30T06:41:13Z) - Reducing language context confusion for end-to-end code-switching
automatic speech recognition [50.89821865949395]
本稿では,E2E符号スイッチングASRモデルの多言語コンテキストの混同を低減するための言語関連アテンション機構を提案する。
複数の言語のそれぞれの注意を計算することにより、豊かな単言語データから言語知識を効率的に伝達することができる。
論文 参考訳(メタデータ) (2022-01-28T14:39:29Z) - Discovering Representation Sprachbund For Multilingual Pre-Training [139.05668687865688]
多言語事前学習モデルから言語表現を生成し、言語分析を行う。
すべての対象言語を複数のグループにクラスタリングし、表現のスプラックバンドとして各グループに名前を付ける。
言語間ベンチマークで実験を行い、強いベースラインと比較して大幅な改善が達成された。
論文 参考訳(メタデータ) (2021-09-01T09:32:06Z) - VECO: Variable and Flexible Cross-lingual Pre-training for Language
Understanding and Generation [77.82373082024934]
我々はTransformerエンコーダにクロスアテンションモジュールを挿入し、言語間の相互依存を明確に構築する。
独自の言語でコンテキストにのみ条件付けされたマスク付き単語の予測の退化を効果的に回避することができる。
提案した言語間モデルでは,XTREMEベンチマークのさまざまな言語間理解タスクに対して,最先端の新たな結果が提供される。
論文 参考訳(メタデータ) (2020-10-30T03:41:38Z) - NLP-CIC at SemEval-2020 Task 9: Analysing sentiment in code-switching
language using a simple deep-learning classifier [63.137661897716555]
コードスイッチングは、2つ以上の言語が同じメッセージで使用される現象である。
標準的な畳み込みニューラルネットワークモデルを用いて、スペイン語と英語の混在するツイートの感情を予測する。
論文 参考訳(メタデータ) (2020-09-07T19:57:09Z) - Leveraging Adversarial Training in Self-Learning for Cross-Lingual Text
Classification [52.69730591919885]
本稿では,ラベル保存型入力摂動の最大損失を最小限に抑える半教師付き対向学習法を提案する。
多様な言語群に対する文書分類と意図分類において,有効性が著しく向上するのを観察する。
論文 参考訳(メタデータ) (2020-07-29T19:38:35Z) - ULD@NUIG at SemEval-2020 Task 9: Generative Morphemes with an Attention
Model for Sentiment Analysis in Code-Mixed Text [1.4926515182392508]
本稿では,SemEval 2020 Task 9 SentiMixに寄与したGenMAモデル感情分析システムについて述べる。
このシステムは、単語レベルの言語タグを使わずに、与えられた英語とヒンディー語を混合したツイートの感情を予測することを目的としている。
論文 参考訳(メタデータ) (2020-07-27T23:58:54Z) - IIT Gandhinagar at SemEval-2020 Task 9: Code-Mixed Sentiment
Classification Using Candidate Sentence Generation and Selection [1.2301855531996841]
コードミキシングは、非標準の書き込みスタイルのためにテキストの感情を分析することの難しさを増す。
本稿では,Bi-LSTMに基づくニューラル分類器上での文生成と選択に基づく提案手法を提案する。
提案手法は,Bi-LSTMに基づくニューラル分類器と比較して,システム性能の向上を示す。
論文 参考訳(メタデータ) (2020-06-25T14:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。