論文の概要: WLV-RIT at GermEval 2021: Multitask Learning with Transformers to Detect
Toxic, Engaging, and Fact-Claiming Comments
- arxiv url: http://arxiv.org/abs/2108.00057v1
- Date: Fri, 30 Jul 2021 19:49:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-05 06:39:21.625564
- Title: WLV-RIT at GermEval 2021: Multitask Learning with Transformers to Detect
Toxic, Engaging, and Fact-Claiming Comments
- Title(参考訳): WLV-RIT at GermEval 2021: Multitask Learning with Transformers to Detect Toxic, Engaging, and Fact-Claiming Comments
- Authors: Skye Morgan, Tharindu Ranasinghe, Marcos Zampieri
- Abstract要約: 本稿は、ソーシャルメディア上での有毒、エンゲージメント、事実宣言的なコメントの識別について論じる。
我々は、GermEval-2021共有タスクのオーガナイザが利用可能なデータセットを使用しました。
3つのタスクの関連性を考慮し,大規模な事前学習型トランスフォーマーモデルとマルチタスク学習を用いて問題にアプローチした。
- 参考スコア(独自算出の注目度): 2.780204344118346
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper addresses the identification of toxic, engaging, and fact-claiming
comments on social media. We used the dataset made available by the organizers
of the GermEval-2021 shared task containing over 3,000 manually annotated
Facebook comments in German. Considering the relatedness of the three tasks, we
approached the problem using large pre-trained transformer models and multitask
learning. Our results indicate that multitask learning achieves performance
superior to the more common single task learning approach in all three tasks.
We submit our best systems to GermEval-2021 under the team name WLV-RIT.
- Abstract(参考訳): 本稿では,ソーシャルメディア上での有毒・エンゲージメント・事実主張の識別について述べる。
germeval-2021の主催者が利用可能なデータセットを使用し、3000以上の手動で注釈付きfacebookコメントをドイツ語で記述した。
3つのタスクの関連性を考慮し,大規模な事前学習型トランスフォーマーモデルとマルチタスク学習を用いて問題にアプローチした。
この結果から,マルチタスク学習は3つのタスクすべてにおいて,より一般的な単一タスク学習手法よりも優れた性能を達成できることが示唆された。
我々は、WLV-RITというチーム名でGermEval-2021にベストシステムを提出する。
関連論文リスト
- SemEval-2024 Task 8: Multidomain, Multimodel and Multilingual Machine-Generated Text Detection [68.858931667807]
Subtask Aは、テキストが人間によって書かれたか、機械によって生成されたかを決定するバイナリ分類タスクである。
サブタスクBは、テキストの正確なソースを検出し、それが人間によって書かれたか、特定のLCMによって生成されたかを認識する。
Subtask Cは、著者が人間から機械へ遷移するテキスト内の変化点を特定することを目的としている。
論文 参考訳(メタデータ) (2024-04-22T13:56:07Z) - Scaling up COMETKIWI: Unbabel-IST 2023 Submission for the Quality
Estimation Shared Task [11.681598828340912]
We present the joint contribution of Unbabel and Instituto Superior T'ecnico to the WMT 2023 Shared Task on Quality Estimation (QE)。
私たちのチームは、文レベルと単語レベルの品質予測(タスク1)ときめ細かいエラースパン検出(タスク2)という、すべてのタスクに参加しました。
我々の多言語的アプローチは、すべてのタスクにおいて第一にランク付けされ、単語、スパン、文レベルの判断における品質評価のための最先端のパフォーマンスに到達します。
論文 参考訳(メタデータ) (2023-09-21T09:38:56Z) - UPB at IberLEF-2023 AuTexTification: Detection of Machine-Generated Text
using Transformer Ensembles [0.5324802812881543]
本稿では, UPB チームによる AuTexTification 共有タスクへのソリューションとして, IberleF-2023 の一部として紹介する。
我々の最高のパフォーマンスモデルは、英語データセットで66.63%、スペイン語データセットで67.10%のマクロF1スコアを達成した。
論文 参考訳(メタデータ) (2023-08-02T20:08:59Z) - TaskWeb: Selecting Better Source Tasks for Multi-task NLP [76.03221609799931]
ペアワイズタスク転送によるタスク関係の認識は、新しいターゲットタスクの学習に役立つ1つ以上のソースタスクの選択を改善する。
私たちはTaskWebを使って、新しいターゲットタスクの学習にソースタスクを使うことの利点を推定し、マルチタスクトレーニングに有用なトレーニングタスクのサブセットを選択する。
本手法は,ソースタスクの総合ランキングとトップk精度をそれぞれ10%,トップk精度を38%向上させる。
論文 参考訳(メタデータ) (2023-05-22T17:27:57Z) - MarsEclipse at SemEval-2023 Task 3: Multi-Lingual and Multi-Label
Framing Detection with Contrastive Learning [21.616089539381996]
本稿では,SemEval-2023 Task 3 Subtask 2 on Framing Detectionについて述べる。
我々は,多言語環境下での大規模事前学習言語モデルの微調整に,マルチラベルのコントラスト損失を用いた。
本システムは,6言語のうち5言語について,公式テストセットと共有タスクリーダーボードで第1位にランクインした。
論文 参考訳(メタデータ) (2023-04-20T18:42:23Z) - Zero-Shot Information Extraction as a Unified Text-to-Triple Translation [56.01830747416606]
我々は、テキストから3つの翻訳フレームワークに一連の情報抽出タスクを投入した。
タスク固有の入力テキストと出力トリプルの変換としてタスクを形式化する。
本稿では,オープン情報抽出におけるゼロショット性能について検討する。
論文 参考訳(メタデータ) (2021-09-23T06:54:19Z) - Efficiently Identifying Task Groupings for Multi-Task Learning [55.80489920205404]
マルチタスク学習は、あるタスクによって学習された情報を活用して、他のタスクのトレーニングに役立てることができる。
マルチタスク学習モデルにおいて、どのタスクを一緒にトレーニングすべきかを選択するアプローチを提案する。
本手法は,全タスクを協調学習し,タスクの勾配が他のタスクの損失に影響を及ぼす影響を定量化する。
論文 参考訳(メタデータ) (2021-09-10T02:01:43Z) - UPB at SemEval-2021 Task 7: Adversarial Multi-Task Learning for
Detecting and Rating Humor and Offense [0.6404122934568858]
本稿では, 敵のマルチタスクネットワークであるAMTL-Humorを用いて, ユーモアや攻撃的テキストの検出と評価を行う。
私達の最もよいモデルはすべてのテストされた構成のアンサンブルから成り、95.66% F1スコアおよびタスク1aのための94.70%の正確さを達成します。
論文 参考訳(メタデータ) (2021-04-13T09:59:05Z) - UPB at SemEval-2020 Task 9: Identifying Sentiment in Code-Mixed Social
Media Texts using Transformers and Multi-Task Learning [1.7196613099537055]
本研究チームは,SemEval-2020 Task 9のために開発したシステムについて述べる。
私たちは、ヒンディー語とスペイン語の2つのよく知られた混成言語をカバーすることを目指しています。
提案手法は, 平均F1スコアが0.6850であるヒンディー語タスクにおいて, 有望な性能を達成する。
スペイン語と英語のタスクでは、29人中17人として、平均で0.7064のF1スコアを獲得しました。
論文 参考訳(メタデータ) (2020-09-06T17:19:18Z) - Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for
Offensive Language Detection [55.445023584632175]
我々は,マルチタスク学習とBERTモデルを組み合わせた攻撃的言語検出システムを構築した。
我々のモデルは、英語のサブタスクAで91.51%のF1スコアを獲得し、これは第1位に匹敵する。
論文 参考訳(メタデータ) (2020-04-28T11:27:24Z) - MTI-Net: Multi-Scale Task Interaction Networks for Multi-Task Learning [82.62433731378455]
特定のスケールで高い親和性を持つタスクは、他のスケールでこの動作を維持することが保証されていないことを示す。
本稿では,この発見に基づく新しいアーキテクチャ MTI-Net を提案する。
論文 参考訳(メタデータ) (2020-01-19T21:02:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。