論文の概要: UPB at SemEval-2022 Task 5: Enhancing UNITER with Image Sentiment and
Graph Convolutional Networks for Multimedia Automatic Misogyny Identification
- arxiv url: http://arxiv.org/abs/2205.14769v1
- Date: Sun, 29 May 2022 21:12:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 10:58:08.489312
- Title: UPB at SemEval-2022 Task 5: Enhancing UNITER with Image Sentiment and
Graph Convolutional Networks for Multimedia Automatic Misogyny Identification
- Title(参考訳): UPB at SemEval-2022 Task 5: Enhancing UNITER with Image Sentiment and Graph Convolutional Networks for Multimedia Automatic Misogyny Identification
- Authors: Andrei Paraschiv, Mihai Dascalu, Dumitru-Clementin Cercel
- Abstract要約: 本稿ではSemEval-2022 Task 5: MAMI - Multimedia Automatic Misogyny Identificationについて述べる。
私たちのベストモデルは、サブタスクAで71.4%、サブタスクBで67.3%のF1スコアに達し、トップボードの上位3分の1にチームを配置します。
- 参考スコア(独自算出の注目度): 0.3437656066916039
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent times, the detection of hate-speech, offensive, or abusive language
in online media has become an important topic in NLP research due to the
exponential growth of social media and the propagation of such messages, as
well as their impact. Misogyny detection, even though it plays an important
part in hate-speech detection, has not received the same attention. In this
paper, we describe our classification systems submitted to the SemEval-2022
Task 5: MAMI - Multimedia Automatic Misogyny Identification. The shared task
aimed to identify misogynous content in a multi-modal setting by analysing meme
images together with their textual captions. To this end, we propose two models
based on the pre-trained UNITER model, one enhanced with an image sentiment
classifier, whereas the second leverages a Vocabulary Graph Convolutional
Network (VGCN). Additionally, we explore an ensemble using the aforementioned
models. Our best model reaches an F1-score of 71.4% in Sub-task A and 67.3% for
Sub-task B positioning our team in the upper third of the leaderboard. We
release the code and experiments for our models on GitHub
- Abstract(参考訳): 近年,ソーシャルメディアにおけるヘイトスピーチ,攻撃的,あるいは虐待的言語の検出は,ソーシャルメディアの急速な成長やメッセージの伝播,その影響から,NLP研究において重要な話題となっている。
憎悪検出において重要な役割を担っているにもかかわらず、ミソジニー検出は同じ注目を集めていない。
本稿では,semeval-2022タスク5: mami - multimedia automatic misogyny identificationに提案する分類システムについて述べる。
共有タスクは,テキストキャプションとともにミーム画像を分析することで,マルチモーダルセッティングにおける偽コンテンツを特定することを目的とした。
この目的のために,2つのモデルを提案する。1つはイメージ感情分類器で拡張され,もう1つは語彙グラフ畳み込みネットワーク(VGCN)を利用する。
さらに,上記のモデルを用いてアンサンブルを探索する。
我々の最良のモデルは、サブタスクaで71.4%、サブタスクbで67.3%のf1スコアに達します。
モデルのコードと実験をgithubで公開しています
関連論文リスト
- M4GT-Bench: Evaluation Benchmark for Black-Box Machine-Generated Text Detection [69.41274756177336]
大規模言語モデル (LLMs) は様々なチャネルにまたがる機械生成テキスト (MGT) を前例のない急激な増加をもたらした。
このことは、その潜在的な誤用と社会的意味に関する正当な懸念を提起する。
本稿では,MGT-M4GT-Benchの多言語,マルチドメイン,マルチジェネレータコーパスに基づく新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2024-02-17T02:50:33Z) - Lexical Squad@Multimodal Hate Speech Event Detection 2023: Multimodal
Hate Speech Detection using Fused Ensemble Approach [0.23020018305241333]
テキスト埋め込み画像から「ヘイトスピーチ」と「ノーヘイトスピーチ」の2つのラベルに分類し、ヘイトスピーチを検出するための新しいアンサンブル学習手法を提案する。
提案したアンサンブルモデルでは,75.21と74.96を精度,F-1スコア(参照)として有望な結果を得た。
論文 参考訳(メタデータ) (2023-09-23T12:06:05Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - Deep Multi-Task Models for Misogyny Identification and Categorization on
Arabic Social Media [6.6410040715586005]
本稿では,最初のアラビア語ミソジニー識別共有タスクについて提案する。
3つのマルチタスク学習モデルと1つのタスク学習モデルについて検討する。
入力テキストを符号化するために、我々のモデルは事前訓練されたMARBERT言語モデルに依存している。
論文 参考訳(メタデータ) (2022-06-16T18:54:37Z) - On Advances in Text Generation from Images Beyond Captioning: A Case
Study in Self-Rationalization [89.94078728495423]
近年のモダリティ,CLIP画像表現,言語モデルの拡張は,マルチモーダル入力によるタスクのマルチモーダル自己調整を一貫して改善していないことを示す。
画像キャプションを超えて画像やテキストからテキストを生成するために構築可能なバックボーンモデリング手法が提案されている。
論文 参考訳(メタデータ) (2022-05-24T00:52:40Z) - TIB-VA at SemEval-2022 Task 5: A Multimodal Architecture for the
Detection and Classification of Misogynous Memes [9.66022279280394]
本稿では,テキストと視覚的特徴を組み合わせたマルチモーダルアーキテクチャを提案する。
課題は、ある文書が偽造であるかどうかを分類することである。
論文 参考訳(メタデータ) (2022-04-13T11:03:21Z) - RubCSG at SemEval-2022 Task 5: Ensemble learning for identifying
misogynous MEMEs [12.979213013465882]
本研究は,SemEval 2022 Task 5: MAMI-Multimedia Automatic Misogyny Identificationのために開発された,様々なユニモーダルおよびバイモーダルモデルアーキテクチャに基づくアンサンブルシステムを提案する。
論文 参考訳(メタデータ) (2022-04-08T09:27:28Z) - AMS_ADRN at SemEval-2022 Task 5: A Suitable Image-text Multimodal Joint
Modeling Method for Multi-task Misogyny Identification [3.5382535469099436]
女性はオンライン、特にTwitterやInstagramのような画像ベースのソーシャルメディアで影響力がある。
本稿では,SemEval-2022 Task 5: Multimedia Automatic Misogyny Identificationについて述べる。
論文 参考訳(メタデータ) (2022-02-18T09:41:37Z) - Video Understanding as Machine Translation [53.59298393079866]
我々は、単一の統合フレームワークを用いて、様々なダウンストリームビデオ理解タスクに取り組む。
映像分類(EPIC-Kitchens)、質問応答(TVQA)、キャプション(TVC, YouCook2, MSR-VTT)など、いくつかのダウンストリームタスクにおいて、現状よりもパフォーマンスの向上が報告されている。
論文 参考訳(メタデータ) (2020-06-12T14:07:04Z) - Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for
Offensive Language Detection [55.445023584632175]
我々は,マルチタスク学習とBERTモデルを組み合わせた攻撃的言語検出システムを構築した。
我々のモデルは、英語のサブタスクAで91.51%のF1スコアを獲得し、これは第1位に匹敵する。
論文 参考訳(メタデータ) (2020-04-28T11:27:24Z) - EmotiCon: Context-Aware Multimodal Emotion Recognition using Frege's
Principle [71.47160118286226]
EmotiConは、ビデオや画像から知覚された人間の感情認識をコンテキスト認識する学習アルゴリズムである。
心理学からフレーゲの文脈原理に動機づけられた我々のアプローチは、感情認識のための文脈の3つの解釈を組み合わせたものである。
平均精度 (AP) スコアは26クラスで35.48であり, 従来の手法よりも7-8の改善が見られた。
論文 参考訳(メタデータ) (2020-03-14T19:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。