論文の概要: MeisterMorxrc at SemEval-2020 Task 9: Fine-Tune Bert and Multitask
Learning for Sentiment Analysis of Code-Mixed Tweets
- arxiv url: http://arxiv.org/abs/2101.03028v1
- Date: Tue, 15 Dec 2020 10:42:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 05:27:26.110047
- Title: MeisterMorxrc at SemEval-2020 Task 9: Fine-Tune Bert and Multitask
Learning for Sentiment Analysis of Code-Mixed Tweets
- Title(参考訳): MeisterMorxrc at SemEval-2020 Task 9: Fine-Tune Bert and Multitask Learning for Sentiment Analysis of Code-Mixed Tweets (英語)
- Authors: Qi Wu, Peng Wang, Chenghao Huang
- Abstract要約: 絵文字を置き換え、珍しい文字を削除することでデータセットを前処理します。
次に、変換器(BERT)から双方向表現を微調整してベストを尽くす。
我々のMeisterMorxrcチームは、このタスクで平均F1スコア0.730を達成した。
- 参考スコア(独自算出の注目度): 19.57976734563006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural language processing (NLP) has been applied to various fields
including text classification and sentiment analysis. In the shared task of
sentiment analysis of code-mixed tweets, which is a part of the SemEval-2020
competition~\cite{patwa2020sentimix}, we preprocess datasets by replacing emoji
and deleting uncommon characters and so on, and then fine-tune the
Bidirectional Encoder Representation from Transformers(BERT) to perform the
best. After exhausting top3 submissions, Our team MeisterMorxrc achieves an
averaged F1 score of 0.730 in this task, and and our codalab username is
MeisterMorxrc.
- Abstract(参考訳): 自然言語処理(NLP)はテキスト分類や感情分析など様々な分野に適用されている。
SemEval-2020コンペティション~\cite{patwa2020sentimix} の一部であるコードミックスツイートの感情分析の共有タスクでは、絵文字の置き換えや非共通文字の削除などによってデータセットを前処理し、変換器(BERT)から双方向エンコーダ表現を微調整してベストを尽くします。
トップ3の応募を終えると、チームmeistermorxrcは平均的なf1スコア0.730を達成し、codalabのユーザーネームはmeistermorxrcです。
関連論文リスト
- SemEval 2024 -- Task 10: Emotion Discovery and Reasoning its Flip in
Conversation (EDiReF) [61.49972925493912]
SemEval-2024 Task 10は、コードミキシングされた対話における感情の識別に焦点を当てた共有タスクである。
このタスクは3つの異なるサブタスクから構成される - コードミックス対話のための会話における感情認識、コードミックス対話のための感情フリップ推論、および英語対話のための感情フリップ推論である。
このタスクには84人の参加者が参加し、各サブタスクのF1スコアは0.70、0.79、0.76に達した。
論文 参考訳(メタデータ) (2024-02-29T08:20:06Z) - Unify word-level and span-level tasks: NJUNLP's Participation for the
WMT2023 Quality Estimation Shared Task [59.46906545506715]
我々は、WMT 2023 Quality Estimation (QE)共有タスクにNJUNLPチームを紹介する。
私たちのチームは2つのサブタスクすべてで英語とドイツ語のペアの予測を提出しました。
我々のモデルは、単語レベルと細粒度エラースパン検出サブタスクの両方において、英語とドイツ語で最高の結果を得た。
論文 参考訳(メタデータ) (2023-09-23T01:52:14Z) - SESCORE2: Learning Text Generation Evaluation via Synthesizing Realistic
Mistakes [93.19166902594168]
テキスト生成評価のためのモデルベースメトリックを学習するための自己教師型アプローチSESCORE2を提案する。
鍵となる概念は、コーパスから取得した文を摂動することで、現実的なモデルミスを合成することである。
3言語にわたる4つのテキスト生成タスクにおいて,SESCORE2とそれ以前の手法を評価する。
論文 参考訳(メタデータ) (2022-12-19T09:02:16Z) - M3ST: Mix at Three Levels for Speech Translation [66.71994367650461]
本稿では,M3ST法を3段階に分けて提案し,拡張学習コーパスの多様性を高める。
ファインチューニングの第1段階では、単語レベル、文レベル、フレームレベルを含む3段階のトレーニングコーパスを混合し、モデル全体を混合データで微調整する。
MuST-C音声翻訳ベンチマークと分析実験により、M3STは現在の強いベースラインより優れ、平均的なBLEU29.9の8方向の最先端の結果が得られることが示された。
論文 参考訳(メタデータ) (2022-12-07T14:22:00Z) - Transformer-based Model for Word Level Language Identification in
Code-mixed Kannada-English Texts [55.41644538483948]
コードミキシングしたカンナダ英語テキストにおける単語レベル言語識別のためのトランスフォーマーベースモデルを提案する。
The proposed model on the CoLI-Kenglish dataset achieves a weighted F1-score of 0.84 and a macro F1-score of 0.61。
論文 参考訳(メタデータ) (2022-11-26T02:39:19Z) - WESSA at SemEval-2020 Task 9: Code-Mixed Sentiment Analysis using
Transformers [0.0]
本稿では,SemEval 2020 Task 9, Code-Mixed Social Media Text の感性分析を行う。
我々の最高の演奏システムは「XLM-RoBERTa」を微調整したトランスファーラーニングベースモデルである
その後の提出では、CodaLabのユーザネーム"ahmed0sultan"を使ってテストセットの平均F1スコアを75.9%達成することに成功した。
論文 参考訳(メタデータ) (2020-09-21T13:59:24Z) - NLP-CIC at SemEval-2020 Task 9: Analysing sentiment in code-switching
language using a simple deep-learning classifier [63.137661897716555]
コードスイッチングは、2つ以上の言語が同じメッセージで使用される現象である。
標準的な畳み込みニューラルネットワークモデルを用いて、スペイン語と英語の混在するツイートの感情を予測する。
論文 参考訳(メタデータ) (2020-09-07T19:57:09Z) - C1 at SemEval-2020 Task 9: SentiMix: Sentiment Analysis for Code-Mixed
Social Media Text using Feature Engineering [0.9646922337783134]
本稿では,SemEval-2020 Task 9: SentiMixのコード混合ソーシャルメディアテキストにおける感情分析における特徴工学的アプローチについて述べる。
重み付きF1スコアは、"Hinglish"タスクが0.65、"Spanglish"タスクが0.63となる。
論文 参考訳(メタデータ) (2020-08-09T00:46:26Z) - Voice@SRIB at SemEval-2020 Task 9 and 12: Stacked Ensembling method for
Sentiment and Offensiveness detection in Social Media [2.9008108937701333]
埋め込み、Sentimixのアンサンブルメソッド、OffensEvalタスクをトレーニングします。
我々は、マクロF1スコア、精度、精度、およびデータセットのリコールについて、我々のモデルを評価する。
論文 参考訳(メタデータ) (2020-07-20T11:54:43Z) - CS-Embed at SemEval-2020 Task 9: The effectiveness of code-switched word
embeddings for sentiment analysis [0.5908471365011942]
我々は、コード変更されたつぶやき、特にSpanglishとして知られるスペイン語と英語を利用するツイートで訓練された単語埋め込みを提示する。
我々は、F-1スコア0.722の感情分類器を訓練するためにそれらを利用する。
これは0.656の競争のベースラインよりも高く、29チーム中14チームがベースラインを上回っています。
論文 参考訳(メタデータ) (2020-06-08T13:48:17Z) - Unsupervised Sentiment Analysis for Code-mixed Data [33.939487457110566]
モノリンガルテキストからコードミキシングテキストへの知識の伝達を効率的に行うために,多言語および多言語間埋め込みを用いた手法を提案する。
我々の手法は、英語とスペイン語のコード混合感情分析において、絶対的な3%のF1スコアを上回りました。
論文 参考訳(メタデータ) (2020-01-20T06:12:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。