論文の概要: problemConquero at SemEval-2020 Task 12: Transformer and Soft
label-based approaches
- arxiv url: http://arxiv.org/abs/2007.10877v1
- Date: Tue, 21 Jul 2020 15:06:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 04:03:49.666094
- Title: problemConquero at SemEval-2020 Task 12: Transformer and Soft
label-based approaches
- Title(参考訳): IssueConquero at SemEval-2020 Task 12: Transformer and Soft label-based approach
- Authors: Karishma Laud, Jagriti Singh, Randeep Kumar Sahu, Ashutosh Modi
- Abstract要約: ソーシャルメディアにおけるSemEval-2020共有タスク12多言語攻撃言語識別のための各種システムについて述べる。
我々はOffensEval-2020の3つのサブタスクに参加したが、評価フェーズの最終提出にはトランスフォーマーベースのアプローチとソフトラベルベースのアプローチが含まれていた。
- 参考スコア(独自算出の注目度): 2.434159858639793
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present various systems submitted by our team
problemConquero for SemEval-2020 Shared Task 12 Multilingual Offensive Language
Identification in Social Media. We participated in all the three sub-tasks of
OffensEval-2020, and our final submissions during the evaluation phase included
transformer-based approaches and a soft label-based approach. BERT based
fine-tuned models were submitted for each language of sub-task A (offensive
tweet identification). RoBERTa based fine-tuned model for sub-task B (automatic
categorization of offense types) was submitted. We submitted two models for
sub-task C (offense target identification), one using soft labels and the other
using BERT based fine-tuned model. Our ranks for sub-task A were Greek-19 out
of 37, Turkish-22 out of 46, Danish-26 out of 39, Arabic-39 out of 53, and
English-20 out of 85. We achieved a rank of 28 out of 43 for sub-task B. Our
best rank for sub-task C was 20 out of 39 using BERT based fine-tuned model.
- Abstract(参考訳): 本稿では,ソーシャルメディアにおけるSemEval-2020共有タスク12の多言語攻撃言語識別のための各種システムについて述べる。
我々はOffensEval-2020の3つのサブタスクに参加し、評価フェーズの最終提出にはトランスフォーマーベースのアプローチとソフトラベルベースのアプローチが含まれました。
BERTベースの微調整モデルがサブタスクAの各言語に対して提出された(悪質なツイート識別)。
サブタスクBのRoBERTaに基づく微調整モデル(違反型の自動分類)が提出された。
我々は,サブタスクCの2つのモデルを提案し,その1つはソフトラベルを用いたもので,もう1つはBERTに基づく微調整モデルを用いたものである。
サブタスクaのランクは、37人中ギリシャ人19人、46人中トルコ人22人、39人中デンマーク人26人、53人中39人、85人中20人でした。
サブタスクBでは43点中28点, サブタスクCでは39点中20点, BERTを用いた微調整モデルでは20点であった。
関連論文リスト
- SemEval-2024 Task 8: Multidomain, Multimodel and Multilingual Machine-Generated Text Detection [68.858931667807]
Subtask Aは、テキストが人間によって書かれたか、機械によって生成されたかを決定するバイナリ分類タスクである。
サブタスクBは、テキストの正確なソースを検出し、それが人間によって書かれたか、特定のLCMによって生成されたかを認識する。
Subtask Cは、著者が人間から機械へ遷移するテキスト内の変化点を特定することを目的としている。
論文 参考訳(メタデータ) (2024-04-22T13:56:07Z) - Unify word-level and span-level tasks: NJUNLP's Participation for the
WMT2023 Quality Estimation Shared Task [59.46906545506715]
我々は、WMT 2023 Quality Estimation (QE)共有タスクにNJUNLPチームを紹介する。
私たちのチームは2つのサブタスクすべてで英語とドイツ語のペアの予測を提出しました。
我々のモデルは、単語レベルと細粒度エラースパン検出サブタスクの両方において、英語とドイツ語で最高の結果を得た。
論文 参考訳(メタデータ) (2023-09-23T01:52:14Z) - CL-UZH at SemEval-2023 Task 10: Sexism Detection through Incremental
Fine-Tuning and Multi-Task Learning with Label Descriptions [0.0]
SemEval shared task textitTowards Explainable Detection of Online Sexism (EDOS 2023)は、英語のソーシャルメディア投稿で性差別を検出することを目的としている。
本稿では,3つのサブタスクすべてに対して,関連するタスクを微調整したマルチタスクモデルに基づく提案システムを提案する。
我々は、各タスクをバイナリペアテキスト分類として定式化し、入力テキストとともにデータセットとラベル記述が与えられるマルチタスク学習を実装した。
論文 参考訳(メタデータ) (2023-06-06T17:59:49Z) - BJTU-WeChat's Systems for the WMT22 Chat Translation Task [66.81525961469494]
本稿では,WMT'22チャット翻訳タスクに対して,北京地東大学とWeChat AIを共同で提案する。
Transformerに基づいて、いくつかの有効な変種を適用します。
本システムでは,0.810と0.946のCOMETスコアを達成している。
論文 参考訳(メタデータ) (2022-11-28T02:35:04Z) - The USYD-JD Speech Translation System for IWSLT 2021 [85.64797317290349]
本稿では,シドニー大学とJDが共同でIWSLT 2021低リソース音声翻訳タスクを提出したことを述べる。
私たちは、公式に提供されたASRとMTデータセットでモデルをトレーニングしました。
翻訳性能の向上を目的として, バック翻訳, 知識蒸留, 多機能再構成, トランスダクティブファインタニングなど, 最新の効果的な手法について検討した。
論文 参考訳(メタデータ) (2021-07-24T09:53:34Z) - UPB at SemEval-2020 Task 12: Multilingual Offensive Language Detection
on Social Media by Fine-tuning a Variety of BERT-based Models [0.0]
本稿では,Twitter上の攻撃的言語を5言語で識別するTransformerベースのソリューションについて述べる。
これは、Offenseval 2020のSubtask Aの共有タスクで使用された。
論文 参考訳(メタデータ) (2020-10-26T14:28:29Z) - QiaoNing at SemEval-2020 Task 4: Commonsense Validation and Explanation
system based on ensemble of language model [2.728575246952532]
本稿では,SemEval-2020 Task 4コンペティションに提出された言語モデルシステムについて述べる。
我々は、事前訓練された言語モデル(BERT、XLNet、RoBERTa、ALBERT)を用いて転送学習を行い、このタスクでそれらを微調整した。
アンサンブルされたモデルはこの問題をよりよく解決し、モデルの精度はサブタスクAで95.9%に達した。
論文 参考訳(メタデータ) (2020-09-06T05:12:50Z) - BUT-FIT at SemEval-2020 Task 4: Multilingual commonsense [1.433758865948252]
本稿では,SemEval 2020 Task 4 - Commonsense Validation and ExplanationにおけるBUT-FITチームの作業について述べる。
サブタスクAとBでは、事前訓練された言語表現モデル(ALBERT)とデータ拡張に基づいている。
我々は、多言語モデルと機械翻訳データセットを用いて、別の言語であるチェコ語のタスクを解く実験を行った。
強い機械翻訳システムでは, 精度の低下を少なく抑えながら, 他言語で使用することができることを示す。
論文 参考訳(メタデータ) (2020-08-17T12:45:39Z) - LTIatCMU at SemEval-2020 Task 11: Incorporating Multi-Level Features for
Multi-Granular Propaganda Span Identification [70.1903083747775]
本稿では,新聞記事におけるプロパガンダ・スパン識別の課題について述べる。
本稿では,BERT-BiLSTMに基づくプロパガンダ分類モデルを提案する。
論文 参考訳(メタデータ) (2020-08-11T16:14:47Z) - LT@Helsinki at SemEval-2020 Task 12: Multilingual or language-specific
BERT? [0.42056926734482064]
本稿では,SemEval 2020 Shared Task 12のLT@Heldirectionalチームが提出したモデルについて述べる。
研究チームは,攻撃的言語識別と攻撃的ターゲット識別という題名のサブタスクAとCに参加した。
どちらのケースでも、Googleが事前トレーニングし、OLIDデータセットとSOLIDデータセットを微調整した、いわゆるBERT(Bisinki Representation from Transformer)を使用しました。
論文 参考訳(メタデータ) (2020-08-03T12:03:17Z) - Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for
Offensive Language Detection [55.445023584632175]
我々は,マルチタスク学習とBERTモデルを組み合わせた攻撃的言語検出システムを構築した。
我々のモデルは、英語のサブタスクAで91.51%のF1スコアを獲得し、これは第1位に匹敵する。
論文 参考訳(メタデータ) (2020-04-28T11:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。