論文の概要: Palomino-Ochoa at SemEval-2020 Task 9: Robust System based on
Transformer for Code-Mixed Sentiment Classification
- arxiv url: http://arxiv.org/abs/2011.09448v1
- Date: Wed, 18 Nov 2020 18:25:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 03:29:04.226128
- Title: Palomino-Ochoa at SemEval-2020 Task 9: Robust System based on
Transformer for Code-Mixed Sentiment Classification
- Title(参考訳): SemEval-2020 Task 9: Code-Mixed Sentiment 分類のための Transformer を用いたロバストシステム
- Authors: Daniel Palomino and Jose Ochoa-Luna
- Abstract要約: 本稿では、スペイン語と英語の混合感情分類タスクを実行するための移動学習システムを提案する。
提案手法では,最先端の言語モデルBERTを使用し,UMMFiT転送学習パイプラインに組み込む。
- 参考スコア(独自算出の注目度): 1.6244541005112747
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a transfer learning system to perform a mixed Spanish-English
sentiment classification task. Our proposal uses the state-of-the-art language
model BERT and embed it within a ULMFiT transfer learning pipeline. This
combination allows us to predict the polarity detection of code-mixed
(English-Spanish) tweets. Thus, among 29 submitted systems, our approach
(referred to as dplominop) is ranked 4th on the Sentimix Spanglish test set of
SemEval 2020 Task 9. In fact, our system yields the weighted-F1 score value of
0.755 which can be easily reproduced -- the source code and implementation
details are made available.
- Abstract(参考訳): 本稿では,スペイン語と英語の感情分類タスクを混合するトランスファー学習システムを提案する。
提案手法では,最先端の言語モデルBERTを使用し,UMMFiT転送学習パイプラインに組み込む。
この組み合わせにより、コード混合(英語とスペイン語)ツイートの極性検出を予測できる。
提案した29のシステムの中では,SemEval 2020 Task 9のSentimix Spanglishテストセットにおいて,我々のアプローチ(dplominop)が第4位にランクされている。
実際,本システムでは,重み付きF1スコア値0.755が容易に再現可能であり,ソースコードと実装の詳細が利用可能である。
関連論文リスト
- Blending LLMs into Cascaded Speech Translation: KIT's Offline Speech Translation System for IWSLT 2024 [61.189875635090225]
大規模言語モデル (LLM) は現在,自動音声認識 (ASR) や機械翻訳 (MT) ,さらにはエンドツーエンド音声翻訳 (ST) など,さまざまなタスクを探索中である。
論文 参考訳(メタデータ) (2024-06-24T16:38:17Z) - HIT-SCIR at MMNLU-22: Consistency Regularization for Multilingual Spoken
Language Understanding [56.756090143062536]
本稿では,ハイブリッドデータ拡張戦略に基づく一貫性の正則化を提案する。
フルデータセットとゼロショット設定の両方で、MASSIVEデータセット上で実験を行う。
提案手法はインテント検出とスロット充足の両方の性能を向上させる。
論文 参考訳(メタデータ) (2023-01-05T11:21:15Z) - BJTU-WeChat's Systems for the WMT22 Chat Translation Task [66.81525961469494]
本稿では,WMT'22チャット翻訳タスクに対して,北京地東大学とWeChat AIを共同で提案する。
Transformerに基づいて、いくつかの有効な変種を適用します。
本システムでは,0.810と0.946のCOMETスコアを達成している。
論文 参考訳(メタデータ) (2022-11-28T02:35:04Z) - Transformer-based Model for Word Level Language Identification in
Code-mixed Kannada-English Texts [55.41644538483948]
コードミキシングしたカンナダ英語テキストにおける単語レベル言語識別のためのトランスフォーマーベースモデルを提案する。
The proposed model on the CoLI-Kenglish dataset achieves a weighted F1-score of 0.84 and a macro F1-score of 0.61。
論文 参考訳(メタデータ) (2022-11-26T02:39:19Z) - Tencent AI Lab - Shanghai Jiao Tong University Low-Resource Translation
System for the WMT22 Translation Task [49.916963624249355]
本稿では, Tencent AI Lab - Shanghai Jiao Tong University (TAL-SJTU) Low-Resource Translation system for the WMT22 shared taskについて述べる。
我々は、英語$Leftrightarrow$Livonianの一般的な翻訳作業に参加する。
本システムは,M2M100を対象言語に適応させる新しい手法を用いて構築した。
論文 参考訳(メタデータ) (2022-10-17T04:34:09Z) - Explicit Alignment Objectives for Multilingual Bidirectional Encoders [111.65322283420805]
本稿では,多言語エンコーダAMBER(Aligned Multilingual Bi-directional EncodeR)の学習方法を提案する。
AMBERは、異なる粒度で多言語表現を整列する2つの明示的なアライメント目標を使用して、追加の並列データに基づいて訓練される。
実験結果から、AMBERは、シーケンスタグ付けで1.1平均F1スコア、XLMR-大規模モデル上での検索で27.3平均精度を得ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T18:34:13Z) - WESSA at SemEval-2020 Task 9: Code-Mixed Sentiment Analysis using
Transformers [0.0]
本稿では,SemEval 2020 Task 9, Code-Mixed Social Media Text の感性分析を行う。
我々の最高の演奏システムは「XLM-RoBERTa」を微調整したトランスファーラーニングベースモデルである
その後の提出では、CodaLabのユーザネーム"ahmed0sultan"を使ってテストセットの平均F1スコアを75.9%達成することに成功した。
論文 参考訳(メタデータ) (2020-09-21T13:59:24Z) - LIMSI_UPV at SemEval-2020 Task 9: Recurrent Convolutional Neural Network
for Code-mixed Sentiment Analysis [8.8561720398658]
本稿では,SemEval-2020 Task 9: Sentiment Analysis for Code-Mixed Social Media TextにおけるLIMSI UPVチームの参加について述べる。
提案手法はSentiMix Hindi- English subtaskで競合し、Hindi- English code-mixedTweetの感情を予測する問題に対処した。
本稿では,リカレントニューラルネットワークと畳み込みニューラルネットワークを併用して,テキストのセマンティクスをよりよく捉えたリカレント畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-08-30T13:52:24Z) - Deep Learning Brasil -- NLP at SemEval-2020 Task 9: Overview of
Sentiment Analysis of Code-Mixed Tweets [0.2294014185517203]
本稿では、コード混在のつぶやき(ヒンズー・イングリッシュ)における感情を予測する手法について述べる。
CodaLabのVerissimo.manoelというチームが、4つのモデルのアンサンブルに基づいたアプローチを開発しました。
最終分類アルゴリズムは、これらの4つのモデルから得られる全てのソフトマックス値のいくつかの予測の集合である。
論文 参考訳(メタデータ) (2020-07-28T16:42:41Z) - Reed at SemEval-2020 Task 9: Fine-Tuning and Bag-of-Words Approaches to
Code-Mixed Sentiment Analysis [1.2147145617662432]
本研究では,SemEval-2020 大会第9タスク(SentiMix タスク)の参加者として,Hinglish (code-mixed Hindi- English) ツイートに対する感情分析の課題について検討する。
提案手法は,(1)事前学習したBERTモデルの微調整によるトランスファーラーニングの適用,2)単語のバッグ・オブ・ワード表現に基づくフィードフォワードニューラルネットワークのトレーニング,の2つであった。
コンペの結果,Fスコアは71.3%,ベストモデルでは62項目中4位にランクインした。
論文 参考訳(メタデータ) (2020-07-26T05:48:46Z) - Yseop at SemEval-2020 Task 5: Cascaded BERT Language Model for
Counterfactual Statement Analysis [0.0]
我々は、分類タスクにBERTベースモデルを使用し、シーケンス識別タスクを処理するために、ハイブリッドBERTマルチ層パーセプトロンシステムを構築した。
本実験により, 構文的・意味的特徴の導入は, 分類タスクにおけるシステム改善にはほとんど寄与しないが, それらの特徴を線形入力として用いて, モデルのシーケンス決定能力を微調整することにより, 2次タスクにおいてBiLSTM-CRFのような他の類似の複雑なシステムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-05-18T08:19:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。