論文の概要: KINLP at SemEval-2023 Task 12: Kinyarwanda Tweet Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2304.12569v1
- Date: Tue, 25 Apr 2023 04:30:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-26 21:59:58.365918
- Title: KINLP at SemEval-2023 Task 12: Kinyarwanda Tweet Sentiment Analysis
- Title(参考訳): KINLP at SemEval-2023 Task 12: Kinyarwanda Tweet Sentiment Analysis
- Authors: Antoine Nzeyimana
- Abstract要約: 本稿では,SemEval-2023 Task 12: Sentiment Analysis for African Languageについて述べる。
システムはKinyarwanda言語に焦点を当て、言語固有のモデルを使用する。
- 参考スコア(独自算出の注目度): 1.2183405753834562
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes the system entered by the author to the SemEval-2023
Task 12: Sentiment analysis for African languages. The system focuses on the
Kinyarwanda language and uses a language-specific model. Kinyarwanda morphology
is modeled in a two tier transformer architecture and the transformer model is
pre-trained on a large text corpus using multi-task masked morphology
prediction. The model is deployed on an experimental platform that allows users
to experiment with the pre-trained language model fine-tuning without the need
to write machine learning code. Our final submission to the shared task
achieves second ranking out of 34 teams in the competition, achieving 72.50%
weighted F1 score. Our analysis of the evaluation results highlights challenges
in achieving high accuracy on the task and identifies areas for improvement.
- Abstract(参考訳): 本稿では、著者が「セメヴァル-2023タスク12:アフリカ語感情分析」に入力したシステムについて述べる。
システムはKinyarwanda言語に焦点を当て、言語固有のモデルを使用する。
kinyarwanda形態素は2層トランスフォーマーアーキテクチャでモデル化され、トランスフォーマーモデルはマルチタスクマスク形態素予測を用いて大きなテキストコーパスで事前学習される。
このモデルは実験的なプラットフォームにデプロイされ、ユーザーは機械学習コードを書くことなく、トレーニング済みの言語モデルの微調整を試すことができる。
共有タスクへの最後の応募は、34チーム中2位を獲得し、72.50%の重み付きF1得点を達成しました。
評価結果の分析は,タスクの高精度化における課題を強調し,改善すべき領域を特定する。
関連論文リスト
- Team QUST at SemEval-2024 Task 8: A Comprehensive Study of Monolingual
and Multilingual Approaches for Detecting AI-generated Text [0.1499944454332829]
本稿では,タスク8SemEval 2024におけるチームQUSTの参加について述べる。
最初にデータセット上でデータ拡張とクリーニングを行い、モデルのトレーニング効率と精度を高めた。
単言語課題では,従来のディープラーニング手法,MPU,ファインチューニング,アダプタ,アンサンブル手法を評価した。
論文 参考訳(メタデータ) (2024-02-19T08:22:51Z) - Disco-Bench: A Discourse-Aware Evaluation Benchmark for Language
Modelling [70.23876429382969]
本研究では,多種多様なNLPタスクに対して,文内談話特性を評価できるベンチマークを提案する。
ディスコ・ベンチは文学領域における9つの文書レベルのテストセットから構成されており、豊富な談話現象を含んでいる。
また,言語分析のために,対象モデルが談話知識を学習するかどうかを検証できる診断テストスイートを設計する。
論文 参考訳(メタデータ) (2023-07-16T15:18:25Z) - NLNDE at SemEval-2023 Task 12: Adaptive Pretraining and Source Language
Selection for Low-Resource Multilingual Sentiment Analysis [11.05909046179595]
本稿では,SemEval-2023タスク12「Twitterデータセットを用いた低リソースアフリカの言語に対する感性分析」のために開発したシステムについて述べる。
対象言語とタスクに事前訓練されたモデルを適用すると、小さいが関連するコーパスを使うことで、F1スコア以上のパフォーマンスが著しく向上する。
共有タスクでは、15トラック中8トラックが勝利し、特に多言語評価において最善を尽くす。
論文 参考訳(メタデータ) (2023-04-28T21:02:58Z) - UBC-DLNLP at SemEval-2023 Task 12: Impact of Transfer Learning on
African Sentiment Analysis [5.945320097465418]
14の異なるアフリカの言語における感情分析の課題に取り組む。
完全教師付き環境下で単言語モデルと多言語モデルの両方を開発する。
本研究は,感情分析における伝達学習と微調整技術の有効性を実証するものである。
論文 参考訳(メタデータ) (2023-04-21T21:25:14Z) - Bag of Tricks for Effective Language Model Pretraining and Downstream
Adaptation: A Case Study on GLUE [93.98660272309974]
このレポートでは、ジェネラル言語理解評価のリーダーボードに関するVega v1を簡潔に紹介します。
GLUEは、質問応答、言語受容性、感情分析、テキスト類似性、パラフレーズ検出、自然言語推論を含む9つの自然言語理解タスクのコレクションである。
最適化された事前学習と微調整の戦略により、13億のモデルは4/9タスクに新しい最先端のタスクを設定し、91.3の平均スコアを達成しました。
論文 参考訳(メタデータ) (2023-02-18T09:26:35Z) - RuArg-2022: Argument Mining Evaluation [69.87149207721035]
本稿は、ロシア語テキストを扱う議論分析システムの最初のコンペティションの主催者の報告である。
新型コロナウイルスの感染拡大に伴う3つの話題について、9,550文(ソーシャルメディア投稿記事)のコーパスを用意した。
両タスクで第一位を獲得したシステムは、BERTアーキテクチャのNLI(Natural Language Inference)変種を使用した。
論文 参考訳(メタデータ) (2022-06-18T17:13:37Z) - Modeling Target-Side Morphology in Neural Machine Translation: A
Comparison of Strategies [72.56158036639707]
形態的に豊かな言語は機械翻訳に困難をもたらす。
多数の異なる屈折する単語曲面は、より大きな語彙を必要とする。
いくつかの頻度の低い用語は、通常、トレーニングコーパスには現れない。
言語的合意は、出力文中の屈折語形間の文法的カテゴリを正しく一致させる必要がある。
論文 参考訳(メタデータ) (2022-03-25T10:13:20Z) - Scaling Language Models: Methods, Analysis & Insights from Training
Gopher [83.98181046650664]
本稿では,トランスフォーマーに基づく言語モデルの性能を,幅広いモデルスケールで解析する。
スケールからのゲインは、理解、事実確認、有害言語の同定などにおいて最大である。
我々は、AIの安全性と下流の害の軽減に対する言語モデルの適用について論じる。
論文 参考訳(メタデータ) (2021-12-08T19:41:47Z) - An Attention Ensemble Approach for Efficient Text Classification of
Indian Languages [0.0]
本稿では,インド・デヴァナガリ文字を母語とするマラーティー語における短文文書の細かな技術領域識別について述べる。
畳み込みニューラルネットワークが生成する中間文表現と双方向の長期記憶とを合体させ,効率的なテキスト分類を実現するcnn-bilstm注意アンサンブルモデルを提案する。
実験結果から,提案モデルが与えられたタスクにおける各種ベースライン機械学習および深層学習モデルより優れ,89.57%,f1スコア0.8875の検証精度が得られた。
論文 参考訳(メタデータ) (2021-02-20T07:31:38Z) - Learning Better Sentence Representation with Syntax Information [0.0]
構文情報と予め訓練された言語モデルを組み合わせるための新しいアプローチを提案する。
本モデルは91.2%の精度を達成し, 文完成作業では37.8%の精度でベースラインモデルを上回った。
論文 参考訳(メタデータ) (2021-01-09T12:15:08Z) - Grounded Compositional Outputs for Adaptive Language Modeling [59.02706635250856]
言語モデルの語彙$-$典型的にはトレーニング前に選択され、後で永久に固定される$-$は、そのサイズに影響します。
言語モデルのための完全合成出力埋め込み層を提案する。
我々の知る限り、この結果はトレーニング語彙に依存しないサイズを持つ最初の単語レベル言語モデルである。
論文 参考訳(メタデータ) (2020-09-24T07:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。