論文の概要: RubCSG at SemEval-2022 Task 5: Ensemble learning for identifying
misogynous MEMEs
- arxiv url: http://arxiv.org/abs/2204.03953v1
- Date: Fri, 8 Apr 2022 09:27:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-11 16:59:02.590806
- Title: RubCSG at SemEval-2022 Task 5: Ensemble learning for identifying
misogynous MEMEs
- Title(参考訳): SemEval-2022 Task 5: Ensemble Learning for identifying misogynous MEMEs
- Authors: Wentao Yu, Benedikt Boenninghoff, Jonas Roehrig, Dorothea Kolossa
- Abstract要約: 本研究は,SemEval 2022 Task 5: MAMI-Multimedia Automatic Misogyny Identificationのために開発された,様々なユニモーダルおよびバイモーダルモデルアーキテクチャに基づくアンサンブルシステムを提案する。
- 参考スコア(独自算出の注目度): 12.979213013465882
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This work presents an ensemble system based on various uni-modal and bi-modal
model architectures developed for the SemEval 2022 Task 5: MAMI-Multimedia
Automatic Misogyny Identification. The challenge organizers provide an English
meme dataset to develop and train systems for identifying and classifying
misogynous memes. More precisely, the competition is separated into two
sub-tasks: sub-task A asks for a binary decision as to whether a meme expresses
misogyny, while sub-task B is to classify misogynous memes into the potentially
overlapping sub-categories of stereotype, shaming, objectification, and
violence. For our submission, we implement a new model fusion network and
employ an ensemble learning approach for better performance. With this
structure, we achieve a 0.755 macroaverage F1-score (11th) in sub-task A and a
0.709 weighted-average F1-score (10th) in sub-task B.
- Abstract(参考訳): 本研究は,SemEval 2022 Task 5: MAMI-Multimedia Automatic Misogyny Identificationのために開発された,様々なユニモーダルおよびバイモーダルモデルアーキテクチャに基づくアンサンブルシステムを提案する。
チャレンジオーガナイザは、偽造ミームを識別し分類するためのシステムを開発し、訓練するための英語のミームデータセットを提供する。
より正確には、コンペティションは2つのサブタスクに分けられる: サブタスク A ミームがミソジニーを表現しているかという二項決定を求め、サブタスク B はミソジニーミームをステレオタイプ、シェーミング、オブジェクト化、暴力の潜在的重複するサブカテゴリに分類する。
提案では,新しいモデル融合ネットワークを実装し,性能向上のためにアンサンブル学習手法を採用する。
この構造により、サブタスクaでは 0.755 マクロ平均 f1-score (11 番目)、サブタスクbでは 0.709 重み付き平均 f1-score (10 番目) を達成する。
関連論文リスト
- GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - A multitask learning framework for leveraging subjectivity of annotators to identify misogyny [47.175010006458436]
本研究では,誤識別システムの性能向上を目的としたマルチタスク学習手法を提案する。
6つのプロファイルグループにまたがる性別と年齢を考慮したモデル設計において,アノテータからさまざまな視点を取り入れた。
本研究は、コンテンツモデレーションを推進し、効果的なオンラインモデレーションシステムを構築するための多様な視点を受け入れることの重要性を強調している。
論文 参考訳(メタデータ) (2024-06-22T15:06:08Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - LCT-1 at SemEval-2023 Task 10: Pre-training and Multi-task Learning for
Sexism Detection and Classification [0.0]
SemEval-2023 Task 10 on Explainable Detection of Online Sexismは、性差別の検出の説明可能性を高めることを目的としている。
我々のシステムは、さらなるドメイン適応型事前学習に基づいている。
実験では、マルチタスク学習は性差別検出のための標準的な微調整と同等に実行される。
論文 参考訳(メタデータ) (2023-06-08T09:56:57Z) - Mixed Autoencoder for Self-supervised Visual Representation Learning [95.98114940999653]
Masked Autoencoder (MAE) は、画像パッチと再構成をランダムにマスキングすることで、様々な視覚タスクにおいて優れた性能を示す。
本稿では,MAEのミキシング強化について検討する。
論文 参考訳(メタデータ) (2023-03-30T05:19:43Z) - UPB at SemEval-2022 Task 5: Enhancing UNITER with Image Sentiment and
Graph Convolutional Networks for Multimedia Automatic Misogyny Identification [0.3437656066916039]
本稿ではSemEval-2022 Task 5: MAMI - Multimedia Automatic Misogyny Identificationについて述べる。
私たちのベストモデルは、サブタスクAで71.4%、サブタスクBで67.3%のF1スコアに達し、トップボードの上位3分の1にチームを配置します。
論文 参考訳(メタデータ) (2022-05-29T21:12:36Z) - Unifying Language Learning Paradigms [96.35981503087567]
データセットやセットアップ全体にわたって普遍的に有効である事前学習モデルのための統一的なフレームワークを提案する。
本研究では, 事前学習対象を相互に配置し, 異なる対象間の補間を効果的に行う方法を示す。
また,テキスト内学習において,ゼロショットSuperGLUEで175B GPT-3,ワンショット要約でT5-XXLの性能を3倍に向上させた。
論文 参考訳(メタデータ) (2022-05-10T19:32:20Z) - TIB-VA at SemEval-2022 Task 5: A Multimodal Architecture for the
Detection and Classification of Misogynous Memes [9.66022279280394]
本稿では,テキストと視覚的特徴を組み合わせたマルチモーダルアーキテクチャを提案する。
課題は、ある文書が偽造であるかどうかを分類することである。
論文 参考訳(メタデータ) (2022-04-13T11:03:21Z) - AMS_ADRN at SemEval-2022 Task 5: A Suitable Image-text Multimodal Joint
Modeling Method for Multi-task Misogyny Identification [3.5382535469099436]
女性はオンライン、特にTwitterやInstagramのような画像ベースのソーシャルメディアで影響力がある。
本稿では,SemEval-2022 Task 5: Multimedia Automatic Misogyny Identificationについて述べる。
論文 参考訳(メタデータ) (2022-02-18T09:41:37Z) - Automatic Sexism Detection with Multilingual Transformer Models [0.0]
本稿では,AIT_FHSTPチームによる2つのsexism Identification in Social neTworksタスクに対するEXIST 2021ベンチマークの貢献について述べる。
これらの課題を解決するために,多言語BERTとXLM-Rをベースとした2つの多言語変換モデルを適用した。
我々のアプローチでは、トランスフォーマーを性差別的コンテンツの検出に適用するために、2つの異なる戦略を用いています。
両方のタスクに対して、最高のモデルは、EXISTデータと追加データセットを教師なしで事前トレーニングしたXLM-Rです。
論文 参考訳(メタデータ) (2021-06-09T08:45:51Z) - Meta-Learning across Meta-Tasks for Few-Shot Learning [107.44950540552765]
我々は,メタ・ラーニングを支援するために,メタ・タスク間の関係を活用すべきであり,これらのタスクを戦略的にサンプリングするべきだと論じている。
2種類のメタタスクペアで定義された関係を考察し、それらを活用するための異なる戦略を提案する。
論文 参考訳(メタデータ) (2020-02-11T09:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。