論文の概要: HausaNLP at SemEval-2023 Task 10: Transfer Learning, Synthetic Data and
Side-Information for Multi-Level Sexism Classification
- arxiv url: http://arxiv.org/abs/2305.00076v1
- Date: Fri, 28 Apr 2023 20:03:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 17:17:49.570853
- Title: HausaNLP at SemEval-2023 Task 10: Transfer Learning, Synthetic Data and
Side-Information for Multi-Level Sexism Classification
- Title(参考訳): SemEval-2023 Task 10:Transfer Learning, Synthetic Data and Side-information for Multi-Level Sexism Classification
- Authors: Saminu Mohammad Aliyu, Idris Abdulmumin, Shamsuddeen Hassan Muhammad,
Ibrahim Said Ahmad, Saheed Abdullahi Salahudeen, Aliyu Yusuf, Falalu Ibrahim
Lawan
- Abstract要約: SemEval-2023 Task 10: Explainable Detection of Online Sexism (EDOS) task。
XLM-T (sentiment classification) と HateBERT (same domain - Reddit) の2つの言語モデルを用いて,マルチレベル分類をSexist と not Sexist に移行する効果を検討した。
- 参考スコア(独自算出の注目度): 0.007696728525672149
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present the findings of our participation in the SemEval-2023 Task 10:
Explainable Detection of Online Sexism (EDOS) task, a shared task on offensive
language (sexism) detection on English Gab and Reddit dataset. We investigated
the effects of transferring two language models: XLM-T (sentiment
classification) and HateBERT (same domain -- Reddit) for multi-level
classification into Sexist or not Sexist, and other subsequent
sub-classifications of the sexist data. We also use synthetic classification of
unlabelled dataset and intermediary class information to maximize the
performance of our models. We submitted a system in Task A, and it ranked 49th
with F1-score of 0.82. This result showed to be competitive as it only
under-performed the best system by 0.052% F1-score.
- Abstract(参考訳): 我々は、semeval-2023タスク10: explainsable detection of online sexism (edos) task, a shared task on offensive language (sexism) detection on english gab and reddit dataset に参加した。
XLM-T (sentiment classification) と HateBERT (same domain - Reddit) の2つの言語モデルによる性差別の多段階分類の効果を検討した。
また,ラベルなしデータセットと中間クラス情報の合成分類を用いて,モデルの性能を最大化する。
タスクAにシステムを提出し,F1スコア0.82で49位となった。
この結果は、最善のシステムを0.052%のf1-scoreで下回るだけの競争力を示した。
関連論文リスト
- The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - LCT-1 at SemEval-2023 Task 10: Pre-training and Multi-task Learning for
Sexism Detection and Classification [0.0]
SemEval-2023 Task 10 on Explainable Detection of Online Sexismは、性差別の検出の説明可能性を高めることを目的としている。
我々のシステムは、さらなるドメイン適応型事前学習に基づいている。
実験では、マルチタスク学習は性差別検出のための標準的な微調整と同等に実行される。
論文 参考訳(メタデータ) (2023-06-08T09:56:57Z) - Attention at SemEval-2023 Task 10: Explainable Detection of Online
Sexism (EDOS) [15.52876591707497]
我々は、分類タスクの形式でモデルによってなされた決定の解釈可能性、信頼、理解に取り組んできた。
最初のタスクは、バイナリ性検出を決定することで構成される。
第二の課題は性差別のカテゴリーを記述することである。
第3の課題は、よりきめ細かい性差別のカテゴリーを記述することである。
論文 参考訳(メタデータ) (2023-04-10T14:24:52Z) - SSS at SemEval-2023 Task 10: Explainable Detection of Online Sexism
using Majority Voted Fine-Tuned Transformers [0.0]
本稿では,SemEval 2023におけるタスク10の提出について述べる。
最近のソーシャルメディアプラットフォームの増加は、ソーシャルメディアプラットフォーム上で女性が経験する性差別の格差が増加している。
提案手法は、BERTモデルの実験と微調整と、個別のベースラインモデルスコアより優れるMajority Votingアンサンブルモデルを用いて構成する。
論文 参考訳(メタデータ) (2023-04-07T07:24:32Z) - Overview of the Shared Task on Fake News Detection in Urdu at FIRE 2020 [62.6928395368204]
タスクはバイナリ分類タスクとして設定され、ゴールはリアルニュースとフェイクニュースを区別することである。
トレーニング用に900の注釈付きニュース記事とテスト用に400のニュース記事のデータセットを作成した。
6カ国(インド、中国、エジプト、ドイツ、パキスタン、イギリス)の42チームが登録された。
論文 参考訳(メタデータ) (2022-07-25T03:41:32Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Sexism Prediction in Spanish and English Tweets Using Monolingual and
Multilingual BERT and Ensemble Models [0.0]
本研究では、多言語・単言語BERTとデータポイントの翻訳とアンサンブル戦略を用いて、性差別の識別と分類を英語とスペイン語で行うシステムを提案する。
論文 参考訳(メタデータ) (2021-11-08T15:01:06Z) - Improving Gender Fairness of Pre-Trained Language Models without
Catastrophic Forgetting [88.83117372793737]
元のトレーニングデータに情報を埋め込むことは、モデルの下流のパフォーマンスを大きなマージンで損なう可能性がある。
本稿では,GEnder Equality Prompt(GEEP)を提案する。
論文 参考訳(メタデータ) (2021-10-11T15:52:16Z) - Automatic Sexism Detection with Multilingual Transformer Models [0.0]
本稿では,AIT_FHSTPチームによる2つのsexism Identification in Social neTworksタスクに対するEXIST 2021ベンチマークの貢献について述べる。
これらの課題を解決するために,多言語BERTとXLM-Rをベースとした2つの多言語変換モデルを適用した。
我々のアプローチでは、トランスフォーマーを性差別的コンテンツの検出に適用するために、2つの異なる戦略を用いています。
両方のタスクに対して、最高のモデルは、EXISTデータと追加データセットを教師なしで事前トレーニングしたXLM-Rです。
論文 参考訳(メタデータ) (2021-06-09T08:45:51Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z) - Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for
Offensive Language Detection [55.445023584632175]
我々は,マルチタスク学習とBERTモデルを組み合わせた攻撃的言語検出システムを構築した。
我々のモデルは、英語のサブタスクAで91.51%のF1スコアを獲得し、これは第1位に匹敵する。
論文 参考訳(メタデータ) (2020-04-28T11:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。