論文の概要: BanglaAbuseMeme: A Dataset for Bengali Abusive Meme Classification
- arxiv url: http://arxiv.org/abs/2310.11748v1
- Date: Wed, 18 Oct 2023 07:10:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 17:38:30.975979
- Title: BanglaAbuseMeme: A Dataset for Bengali Abusive Meme Classification
- Title(参考訳): BanglaAbuseMeme: Bengali Abusive Meme分類のためのデータセット
- Authors: Mithun Das and Animesh Mukherjee
- Abstract要約: 個人やコミュニティを悪用する単純で効果的な方法はミームを作ることである。
このような有害な要素は普及しており、オンラインの安全を脅かしている。
乱用ミームを検知・フラグする効率的なモデルを開発する必要がある。
- 参考スコア(独自算出の注目度): 11.04522597948877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The dramatic increase in the use of social media platforms for information
sharing has also fueled a steep growth in online abuse. A simple yet effective
way of abusing individuals or communities is by creating memes, which often
integrate an image with a short piece of text layered on top of it. Such
harmful elements are in rampant use and are a threat to online safety. Hence it
is necessary to develop efficient models to detect and flag abusive memes. The
problem becomes more challenging in a low-resource setting (e.g., Bengali
memes, i.e., images with Bengali text embedded on it) because of the absence of
benchmark datasets on which AI models could be trained. In this paper we bridge
this gap by building a Bengali meme dataset. To setup an effective benchmark we
implement several baseline models for classifying abusive memes using this
dataset. We observe that multimodal models that use both textual and visual
information outperform unimodal models. Our best-performing model achieves a
macro F1 score of 70.51. Finally, we perform a qualitative error analysis of
the misclassified memes of the best-performing text-based, image-based and
multimodal models.
- Abstract(参考訳): 情報共有のためのソーシャルメディアプラットフォームの利用が劇的に増加したことも、オンラインの悪用が急増した。
個人やコミュニティを虐待するシンプルで効果的な方法は、ミームを作成することだ。
このような有害な要素は普及しており、オンラインの安全を脅かしている。
したがって、乱用ミームを検出してフラグを立てる効率的なモデルを開発する必要がある。
この問題は、AIモデルをトレーニング可能なベンチマークデータセットが存在しないため、低リソース環境(例えば、ベンガルのミーム、すなわち、ベンガルのテキストが埋め込まれた画像)ではより困難になる。
本稿では,このギャップをベンガルミームデータセットの構築によって橋渡しする。
効果的なベンチマークを設定するために、このデータセットを使用して乱用ミームを分類するためのベースラインモデルをいくつか実装します。
テキスト情報と視覚情報の両方を利用するマルチモーダルモデルは、単調モデルよりも優れている。
我々の最高の性能モデルは、マクロF1スコア70.51を達成する。
最後に,テキストベース,イメージベース,マルチモーダルモデルの誤分類されたミームの質的誤り解析を行う。
関連論文リスト
- Text or Image? What is More Important in Cross-Domain Generalization
Capabilities of Hate Meme Detection Models? [2.4899077941924967]
本稿では,マルチモーダルヘイトミーム検出におけるクロスドメイン一般化の難題について述べる。
ヘイトフルミームのテキスト成分のみによって、既存のマルチモーダル分類器が異なる領域にわたって一般化できるという仮説を支持する十分な証拠を提供する。
新たに作成された共同創設者データセットに対する我々の評価は、画像共同創設者の0.18ドルの平均$Delta$F1と比較すると、テキスト共同創設者のより高いパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-07T15:44:55Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - Explainable Multimodal Sentiment Analysis on Bengali Memes [0.0]
ミームの根底にある感情を理解し、解釈することは、情報の時代において重要になっている。
本研究ではResNet50とBanglishBERTを用いたマルチモーダル手法を用いて0.71重み付きF1スコアの良好な結果を得た。
論文 参考訳(メタデータ) (2023-12-20T17:15:10Z) - A Template Is All You Meme [83.05919383106715]
我々は,54,000枚以上の画像からなる www.knowyourme.com で発見されたミームと情報の知識ベースをリリースする。
我々は、ミームテンプレートが、以前のアプローチから欠落したコンテキストでモデルを注入するのに使えると仮定する。
論文 参考訳(メタデータ) (2023-11-11T19:38:14Z) - Unimodal Intermediate Training for Multimodal Meme Sentiment
Classification [0.0]
本報告では、比較的豊富な感情ラベル付き一助データを用いた教師付き中間訓練の新たな変種について述べる。
本結果より, 単文データの導入により, 統計的に有意な性能向上が得られた。
下流モデルの性能を低下させることなく,ラベル付きミームのトレーニングセットを40%削減できることを示す。
論文 参考訳(メタデータ) (2023-08-01T13:14:10Z) - Benchmarking Robustness of Multimodal Image-Text Models under
Distribution Shift [50.64474103506595]
本稿では,5つのタスクに対する共通の摂動下での12のオープンソース画像テキストモデルの堅牢性について検討する。
文字レベルの摂動はテキストの最も深刻な分布シフトであり、ズームボケは画像データにとって最も深刻なシフトである。
論文 参考訳(メタデータ) (2022-12-15T18:52:03Z) - DisinfoMeme: A Multimodal Dataset for Detecting Meme Intentionally
Spreading Out Disinformation [72.18912216025029]
偽情報ミームの検出を支援するためにDisinfoMemeを提案する。
このデータセットには、COVID-19パンデミック、Black Lives Matter運動、ベジタリアン/ベジタリアンという3つのトピックをカバーするRedditのミームが含まれている。
論文 参考訳(メタデータ) (2022-05-25T09:54:59Z) - Multimodal Hate Speech Detection from Bengali Memes and Texts [0.6709991492637819]
本稿では,マルチモーダルなベンガルミームとテキストからのヘイトスピーチ検出について述べる。
我々は、ヘイトスピーチ検出のためのテキスト情報と視覚情報を分析するために、複数のニューラルネットワークを訓練する。
本研究は,ベンガル語におけるヘイトスピーチ検出にはミームが適度に有用であることが示唆する。
論文 参考訳(メタデータ) (2022-04-19T11:15:25Z) - LAFITE: Towards Language-Free Training for Text-to-Image Generation [83.2935513540494]
テキストデータなしでテキストから画像への生成モデルをトレーニングするための最初の作業を提案する。
提案手法は,CLIPモデルのマルチモーダルなセマンティック空間の整合性を活用している。
我々は,標準的なテキスト・画像生成タスクにおいて,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-11-27T01:54:45Z) - Detecting Harmful Memes and Their Targets [27.25262711136056]
COVID-19に関連する3,544のミームを含む最初のベンチマークデータセットであるHarMemeを紹介します。
第1段階では、ミームを非常に有害、部分的に有害、または無害とラベル付けし、第2段階では、有害ミームが示す標的の種類をさらにアノテートした。
10の単一モーダルモデルとマルチモーダルモデルによる評価結果は、両方のタスクにマルチモーダル信号を使用することの重要性を強調している。
論文 参考訳(メタデータ) (2021-09-24T17:11:42Z) - Caption Enriched Samples for Improving Hateful Memes Detection [78.5136090997431]
憎しみのあるミームの挑戦は、ミームが憎悪であるか否かを決定するのが困難であることを示している。
ユニモーダル言語モデルとマルチモーダル視覚言語モデルの両方が人間のパフォーマンスレベルに到達できない。
論文 参考訳(メタデータ) (2021-09-22T10:57:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。