論文の概要: ML_LTU at SemEval-2022 Task 4: T5 Towards Identifying Patronizing and
Condescending Language
- arxiv url: http://arxiv.org/abs/2204.07432v1
- Date: Fri, 15 Apr 2022 12:00:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-18 17:18:46.050411
- Title: ML_LTU at SemEval-2022 Task 4: T5 Towards Identifying Patronizing and
Condescending Language
- Title(参考訳): ML_LTU at SemEval-2022 Task 4: T5 to Identifying Patronizing and Condescending Language
- Authors: Tosin Adewumi, Lama Alkhaled, Hamam Alkhaled, Foteini Liwicki and
Marcus Liwicki
- Abstract要約: 本稿では,SemEval-2022 Task 4: Patronizing and Condescending Language (PCL) Detectionのサブタスク1でLTUの機械学習グループが使用しているシステムについて述べる。
本システムは,事前訓練されたテキスト・テキスト・トランスフォーマ(T5)を微調整し,そのクラス外予測を革新的に削減する。
- 参考スコア(独自算出の注目度): 1.3445335428144554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes the system used by the Machine Learning Group of LTU in
subtask 1 of the SemEval-2022 Task 4: Patronizing and Condescending Language
(PCL) Detection. Our system consists of finetuning a pretrained
Text-to-Text-Transfer Transformer (T5) and innovatively reducing its
out-of-class predictions. The main contributions of this paper are 1) the
description of the implementation details of the T5 model we used, 2) analysis
of the successes & struggles of the model in this task, and 3) ablation studies
beyond the official submission to ascertain the relative importance of data
split. Our model achieves an F1 score of 0.5452 on the official test set.
- Abstract(参考訳): 本稿では,SemEval-2022 Task 4: Patronizing and Condescending Language (PCL) Detectionのサブタスク1でLTUの機械学習グループが使用しているシステムについて述べる。
本システムでは,事前学習したテキスト-テキスト変換トランス(t5)を微調整し,その非クラス予測を革新的に削減する。
この論文の主な貢献は
1)我々が使用したt5モデルの実装詳細の説明。
2)この課題におけるモデルの成功と苦労の分析
3)データ分割の相対的重要性を確認するための公式提出以上のアブレーション研究。
我々のモデルは公式テストセットで0.5452のF1スコアを達成する。
関連論文リスト
- Multilingual E5 Text Embeddings: A Technical Report [63.503320030117145]
異なるサイズの3つの埋め込みモデルを提供し、推論効率と埋め込み品質のバランスを提供する。
そこで我々は,新しい命令調整型埋め込みモデルを導入し,その性能は類似サイズの最先端の英語のみのモデルと同等である。
論文 参考訳(メタデータ) (2024-02-08T13:47:50Z) - Document-Level Machine Translation with Large Language Models [91.03359121149595]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクに対して、一貫性、凝集性、関連性、流動性のある回答を生成することができる。
本稿では,LLMの談話モデルにおける能力について詳細に評価する。
論文 参考訳(メタデータ) (2023-04-05T03:49:06Z) - Large Language Models in the Workplace: A Case Study on Prompt
Engineering for Job Type Classification [58.720142291102135]
本研究では,実環境における職種分類の課題について検討する。
目標は、英語の求職が卒業生やエントリーレベルの地位に適切かどうかを判断することである。
論文 参考訳(メタデータ) (2023-03-13T14:09:53Z) - Conciseness: An Overlooked Language Task [11.940413163824887]
タスクを定義し、要約や単純化といった関連するタスクとは異なることを示す。
大規模なニューラルネットワークモデルによるゼロショットセットアップがよく機能しない場合、簡潔性は難しい課題であることを示す。
論文 参考訳(メタデータ) (2022-11-08T09:47:11Z) - Evaluation of Transfer Learning for Polish with a Text-to-Text Model [54.81823151748415]
ポーランド語におけるテキスト・テキスト・モデルの質を評価するための新しいベンチマークを導入する。
KLEJベンチマークはテキスト・トゥ・テキスト、en-pl翻訳、要約、質問応答に適応している。
本稿では,ポーランド語のための汎用テキスト・テキスト・ツー・テキスト・モデルであるplT5について述べる。
論文 参考訳(メタデータ) (2022-05-18T09:17:14Z) - RoBLEURT Submission for the WMT2021 Metrics Task [72.26898579202076]
本稿では,共有メトリクスタスクであるRoBLEURTについて紹介する。
我々のモデルは10対の英語言語対のうち8対でWMT 2020の人間のアノテーションと最先端の相関に達する。
論文 参考訳(メタデータ) (2022-04-28T08:49:40Z) - PALI-NLP at SemEval-2022 Task 4: Discriminative Fine-tuning of Deep
Transformers for Patronizing and Condescending Language Detection [4.883341580669763]
そこで我々は,PCL検出のための新しいトランスフォーマーモデルとそのアンサンブルを提案する。
PCLの微妙で主観的な性質の理解を容易にするために,2つの微調整戦略を適用した。
このシステムは公式ランキングにおいて顕著な結果、すなわちSubtask 1で1位、Subtask 2で5位となる。
論文 参考訳(メタデータ) (2022-03-09T10:05:10Z) - IITK@Detox at SemEval-2021 Task 5: Semi-Supervised Learning and Dice
Loss for Toxic Spans Detection [2.1012672709024294]
SemEval-2021 Task 5 - Toxic Spans Detectionのアプローチと調査結果を紹介します。
タスクの主な目的は、与えられたテキストの毒性が引き起こされる可能性のあるスパンを特定することでした。
本稿では,自己調整ダイスロスを用いた半教師学習と学習の2つの手法について検討する。
論文 参考訳(メタデータ) (2021-04-04T08:39:55Z) - ZJUKLAB at SemEval-2021 Task 4: Negative Augmentation with Language
Model for Reading Comprehension of Abstract Meaning [16.151203366447962]
モデル学習に使用されるアルゴリズムとアルゴリズムをチューニングし、最良のモデルを選択するプロセスについて説明する。
ReCAMタスクと言語事前学習の類似性から着想を得て,言語モデルによる否定的拡張という,シンプルで効果的な技術を提案する。
我々のモデルは、それぞれ87.9%の精度と92.8%の精度で、Subtask 1とSubtask 2の2つの公式テストセットで4位に達した。
論文 参考訳(メタデータ) (2021-02-25T13:03:05Z) - mT5: A massively multilingual pre-trained text-to-text transformer [60.0210636815514]
The Text-to-Text Transfer Transformer (T5) は、統一されたテキスト・トゥ・テキストフォーマットとスケールを利用して、英語のNLPタスクで最先端の結果を得る。
101言語をカバーする新しいCommon Crawlベースのデータセットで事前トレーニングを行ったマルチ言語版T5であるmT5を紹介する。
論文 参考訳(メタデータ) (2020-10-22T17:58:14Z) - KaLM at SemEval-2020 Task 4: Knowledge-aware Language Models for
Comprehension And Generation [4.94950858749529]
本稿では,3つのサブタスクのバックボーンとして,エビデンスを探索し,様々な大規模事前学習モデルを選択する方法を提案する。
その結果,エビデンス調査手法により,コモンセンス説明課題におけるモデル性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-05-24T15:09:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。