論文の概要: TIB-VA at SemEval-2022 Task 5: A Multimodal Architecture for the
Detection and Classification of Misogynous Memes
- arxiv url: http://arxiv.org/abs/2204.06299v1
- Date: Wed, 13 Apr 2022 11:03:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-14 12:25:36.626403
- Title: TIB-VA at SemEval-2022 Task 5: A Multimodal Architecture for the
Detection and Classification of Misogynous Memes
- Title(参考訳): SemEval-2022 Task 5: Misogynous Memesの検出と分類のためのマルチモーダルアーキテクチャ
- Authors: Sherzod Hakimov and Gullal S. Cheema and Ralph Ewerth
- Abstract要約: 本稿では,テキストと視覚的特徴を組み合わせたマルチモーダルアーキテクチャを提案する。
課題は、ある文書が偽造であるかどうかを分類することである。
- 参考スコア(独自算出の注目度): 9.66022279280394
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The detection of offensive, hateful content on social media is a challenging
problem that affects many online users on a daily basis. Hateful content is
often used to target a group of people based on ethnicity, gender, religion and
other factors. The hate or contempt toward women has been increasing on social
platforms. Misogynous content detection is especially challenging when textual
and visual modalities are combined to form a single context, e.g., an overlay
text embedded on top of an image, also known as meme. In this paper, we present
a multimodal architecture that combines textual and visual features in order to
detect misogynous meme content. The proposed architecture is evaluated in the
SemEval-2022 Task 5: MAMI - Multimedia Automatic Misogyny Identification
challenge under the team name TIB-VA. Our solution obtained the best result in
the Task-B where the challenge is to classify whether a given document is
misogynous and further identify the main sub-classes of shaming, stereotype,
objectification, and violence.
- Abstract(参考訳): ソーシャルメディア上の不快で憎悪的なコンテンツの検出は、毎日多くのオンラインユーザーに影響を与える困難な問題である。
憎しみのあるコンテンツは、民族、性別、宗教、その他の要素に基づく人々のグループをターゲットにするためにしばしば使用される。
社会プラットフォームでは、女性に対する憎悪や軽蔑が増している。
テキストと視覚のモダリティを組み合わせることで単一のコンテキスト(例えばmemeとして知られる画像の上に埋め込まれたオーバーレイテキスト)を形成する場合、見当違いなコンテンツ検出は特に困難である。
本稿では,不規則なミームの内容を検出するために,テキストと視覚的特徴を組み合わせたマルチモーダルアーキテクチャを提案する。
提案したアーキテクチャはSemEval-2022 Task 5: MAMI - Multimedia Automatic Misogyny Identification Challenge(TIB-VA)で評価されている。
提案手法は,ある文書が誤認であるか否かを分類し,さらにシェーミング,ステレオタイプ,客観化,暴力の主要なサブクラスを識別することが課題であるタスクbにおいて最善の結果を得た。
関連論文リスト
- A multitask learning framework for leveraging subjectivity of annotators to identify misogyny [47.175010006458436]
本研究では,誤識別システムの性能向上を目的としたマルチタスク学習手法を提案する。
6つのプロファイルグループにまたがる性別と年齢を考慮したモデル設計において,アノテータからさまざまな視点を取り入れた。
本研究は、コンテンツモデレーションを推進し、効果的なオンラインモデレーションシステムを構築するための多様な視点を受け入れることの重要性を強調している。
論文 参考訳(メタデータ) (2024-06-22T15:06:08Z) - SHIELD : An Evaluation Benchmark for Face Spoofing and Forgery Detection
with Multimodal Large Language Models [63.946809247201905]
フェーススプーフィングと偽造検出におけるMLLMの能力を評価するための新しいベンチマーク、ShielDを導入する。
我々は、これらの2つの顔セキュリティタスクにおいて、マルチモーダル顔データを評価するために、真/偽/複数選択の質問を設計する。
その結果,MLLMは顔セキュリティ領域において大きな可能性を秘めていることがわかった。
論文 参考訳(メタデータ) (2024-02-06T17:31:36Z) - GPT-4V(ision) as A Social Media Analysis Engine [77.23394183063238]
本稿では,GPT-4Vのソーシャルマルチメディア分析能力について考察する。
我々は、感情分析、ヘイトスピーチ検出、フェイクニュース識別、人口推定、政治的イデオロギー検出を含む5つの代表的なタスクを選択する。
GPT-4Vはこれらのタスクにおいて顕著な効果を示し、画像とテキストのペアの理解、文脈と文化の認識、広義のコモンセンス知識などの強みを示している。
論文 参考訳(メタデータ) (2023-11-13T18:36:50Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Deep Multi-Task Models for Misogyny Identification and Categorization on
Arabic Social Media [6.6410040715586005]
本稿では,最初のアラビア語ミソジニー識別共有タスクについて提案する。
3つのマルチタスク学習モデルと1つのタスク学習モデルについて検討する。
入力テキストを符号化するために、我々のモデルは事前訓練されたMARBERT言語モデルに依存している。
論文 参考訳(メタデータ) (2022-06-16T18:54:37Z) - UPB at SemEval-2022 Task 5: Enhancing UNITER with Image Sentiment and
Graph Convolutional Networks for Multimedia Automatic Misogyny Identification [0.3437656066916039]
本稿ではSemEval-2022 Task 5: MAMI - Multimedia Automatic Misogyny Identificationについて述べる。
私たちのベストモデルは、サブタスクAで71.4%、サブタスクBで67.3%のF1スコアに達し、トップボードの上位3分の1にチームを配置します。
論文 参考訳(メタデータ) (2022-05-29T21:12:36Z) - DISARM: Detecting the Victims Targeted by Harmful Memes [49.12165815990115]
DISARMは、有害なミームを検出するために名前付きエンティティ認識と個人識別を使用するフレームワークである。
DISARMは10の単一モーダル・マルチモーダルシステムより著しく優れていることを示す。
複数の強力なマルチモーダルライバルに対して、有害なターゲット識別の相対誤差率を最大9ポイントまで下げることができる。
論文 参考訳(メタデータ) (2022-05-11T19:14:26Z) - Detecting and Understanding Harmful Memes: A Survey [48.135415967633676]
我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
論文 参考訳(メタデータ) (2022-05-09T13:43:27Z) - RubCSG at SemEval-2022 Task 5: Ensemble learning for identifying
misogynous MEMEs [12.979213013465882]
本研究は,SemEval 2022 Task 5: MAMI-Multimedia Automatic Misogyny Identificationのために開発された,様々なユニモーダルおよびバイモーダルモデルアーキテクチャに基づくアンサンブルシステムを提案する。
論文 参考訳(メタデータ) (2022-04-08T09:27:28Z) - AMS_ADRN at SemEval-2022 Task 5: A Suitable Image-text Multimodal Joint
Modeling Method for Multi-task Misogyny Identification [3.5382535469099436]
女性はオンライン、特にTwitterやInstagramのような画像ベースのソーシャルメディアで影響力がある。
本稿では,SemEval-2022 Task 5: Multimedia Automatic Misogyny Identificationについて述べる。
論文 参考訳(メタデータ) (2022-02-18T09:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。