論文の概要: GMNLP at SemEval-2023 Task 12: Sentiment Analysis with Phylogeny-Based
Adapters
- arxiv url: http://arxiv.org/abs/2304.12979v1
- Date: Tue, 25 Apr 2023 16:39:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-26 19:48:45.747815
- Title: GMNLP at SemEval-2023 Task 12: Sentiment Analysis with Phylogeny-Based
Adapters
- Title(参考訳): gmnlp at semeval-2023 task 12: 系統別アダプタを用いた感情分析
- Authors: Md Mahfuz Ibn Alam, Ruoyu Xie, Fahim Faisal, Antonios Anastasopoulos
- Abstract要約: 本報告では,SemEval-2023共有タスクAfriSenti-SemEvalに対するGMUの感情分析システムについて述べる。
AfroXLMR-largeはアフリカ語で訓練された訓練済み多言語言語モデルである。
本システムでは,5:Amharicで最高のF1スコアを達成し,F1スコアを6.2ポイント上回っている。
- 参考スコア(独自算出の注目度): 35.36372251094268
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This report describes GMU's sentiment analysis system for the SemEval-2023
shared task AfriSenti-SemEval. We participated in all three sub-tasks:
Monolingual, Multilingual, and Zero-Shot. Our approach uses models initialized
with AfroXLMR-large, a pre-trained multilingual language model trained on
African languages and fine-tuned correspondingly. We also introduce augmented
training data along with original training data. Alongside finetuning, we
perform phylogeny-based adapter tuning to create several models and ensemble
the best models for the final submission. Our system achieves the best F1-score
on track 5: Amharic, with 6.2 points higher F1-score than the second-best
performing system on this track. Overall, our system ranks 5th among the 10
systems participating in all 15 tracks.
- Abstract(参考訳): 本報告では,SemEval-2023共有タスクAfriSenti-SemEvalに対するGMUの感情分析システムについて述べる。
我々は,モノリンガル,マルチリンガル,ゼロショットの3つのサブタスクに参加した。
AfroXLMR-largeはアフリカ語で訓練された訓練済みの多言語言語モデルである。
また,オリジナルトレーニングデータとともに拡張トレーニングデータも導入する。
微調整と並行して,複数のモデルを作成し,最終提案に最適なモデルをアサンブルするために,系統ベースのアダプタチューニングを行う。
本システムでは,5:Amharicで最高のF1スコアを達成し,F1スコアを6.2ポイント上回っている。
システム全体では、全15トラックに参加する10のシステムの中で5位です。
関連論文リスト
- UBC-DLNLP at SemEval-2023 Task 12: Impact of Transfer Learning on
African Sentiment Analysis [5.945320097465418]
14の異なるアフリカの言語における感情分析の課題に取り組む。
完全教師付き環境下で単言語モデルと多言語モデルの両方を開発する。
本研究は,感情分析における伝達学習と微調整技術の有効性を実証するものである。
論文 参考訳(メタデータ) (2023-04-21T21:25:14Z) - Enhancing Model Performance in Multilingual Information Retrieval with
Comprehensive Data Engineering Techniques [10.57012904999091]
我々は、MIRACLデータセットを用いて、事前訓練された多言語トランスフォーマーベースモデルを微調整する。
モデルの改善は主に、多様なデータエンジニアリング技術によって達成されます。
我々はSurprise-Languagesトラックで2位、Known-Languagesトラックで0.835位、3位、NDCG@10スコアで16の既知の言語で平均0.716位を確保した。
論文 参考訳(メタデータ) (2023-02-14T12:37:32Z) - BJTU-WeChat's Systems for the WMT22 Chat Translation Task [66.81525961469494]
本稿では,WMT'22チャット翻訳タスクに対して,北京地東大学とWeChat AIを共同で提案する。
Transformerに基づいて、いくつかの有効な変種を適用します。
本システムでは,0.810と0.946のCOMETスコアを達成している。
論文 参考訳(メタデータ) (2022-11-28T02:35:04Z) - Tencent AI Lab - Shanghai Jiao Tong University Low-Resource Translation
System for the WMT22 Translation Task [49.916963624249355]
本稿では, Tencent AI Lab - Shanghai Jiao Tong University (TAL-SJTU) Low-Resource Translation system for the WMT22 shared taskについて述べる。
我々は、英語$Leftrightarrow$Livonianの一般的な翻訳作業に参加する。
本システムは,M2M100を対象言語に適応させる新しい手法を用いて構築した。
論文 参考訳(メタデータ) (2022-10-17T04:34:09Z) - Unifying Language Learning Paradigms [96.35981503087567]
データセットやセットアップ全体にわたって普遍的に有効である事前学習モデルのための統一的なフレームワークを提案する。
本研究では, 事前学習対象を相互に配置し, 異なる対象間の補間を効果的に行う方法を示す。
また,テキスト内学習において,ゼロショットSuperGLUEで175B GPT-3,ワンショット要約でT5-XXLの性能を3倍に向上させた。
論文 参考訳(メタデータ) (2022-05-10T19:32:20Z) - Multilingual Machine Translation Systems from Microsoft for WMT21 Shared
Task [95.06453182273027]
本報告では、大規模多言語機械翻訳におけるWMT21共有タスクのためのMicrosoftの機械翻訳システムについて述べる。
共有タスクへのモデル提出はDeltaLMnotefooturlhttps://aka.ms/deltalmで行われました。
最終提出は自動評価基準で3トラックにランクインした。
論文 参考訳(メタデータ) (2021-11-03T09:16:17Z) - The USYD-JD Speech Translation System for IWSLT 2021 [85.64797317290349]
本稿では,シドニー大学とJDが共同でIWSLT 2021低リソース音声翻訳タスクを提出したことを述べる。
私たちは、公式に提供されたASRとMTデータセットでモデルをトレーニングしました。
翻訳性能の向上を目的として, バック翻訳, 知識蒸留, 多機能再構成, トランスダクティブファインタニングなど, 最新の効果的な手法について検討した。
論文 参考訳(メタデータ) (2021-07-24T09:53:34Z) - FiSSA at SemEval-2020 Task 9: Fine-tuned For Feelings [2.362412515574206]
本稿では,スペイン語と英語の混在するソーシャルメディアデータを用いた感情分類手法を提案する。
単言語モデルと多言語モデルの両方を標準微調整法を用いて検討する。
2段階の微調整により、ベースモデルよりも感情分類性能が向上するが、大規模多言語XLM-RoBERTaモデルではF1スコアが最適である。
論文 参考訳(メタデータ) (2020-07-24T14:48:27Z) - Growing Together: Modeling Human Language Learning With n-Best
Multi-Checkpoint Machine Translation [8.9379057739817]
我々は、MTモデルを様々な訓練段階において、異なるレベルの人間の学習者とみなす。
我々は同じモデルから複数のチェックポイントのアンサンブルを用いて、様々なレベルの流速で翻訳シーケンスを生成する。
我々は、ポルトガル語の共有タスクテストデータに対して、公式英語の6つのチェックポイントモデルアンサンブルで37.57マクロF1を達成する。
論文 参考訳(メタデータ) (2020-06-07T05:46:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。