論文の概要: BanglaAbuseMeme: A Dataset for Bengali Abusive Meme Classification
- arxiv url: http://arxiv.org/abs/2310.11748v1
- Date: Wed, 18 Oct 2023 07:10:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 17:38:30.975979
- Title: BanglaAbuseMeme: A Dataset for Bengali Abusive Meme Classification
- Title(参考訳): BanglaAbuseMeme: Bengali Abusive Meme分類のためのデータセット
- Authors: Mithun Das and Animesh Mukherjee
- Abstract要約: 個人やコミュニティを悪用する単純で効果的な方法はミームを作ることである。
このような有害な要素は普及しており、オンラインの安全を脅かしている。
乱用ミームを検知・フラグする効率的なモデルを開発する必要がある。
- 参考スコア(独自算出の注目度): 11.04522597948877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The dramatic increase in the use of social media platforms for information
sharing has also fueled a steep growth in online abuse. A simple yet effective
way of abusing individuals or communities is by creating memes, which often
integrate an image with a short piece of text layered on top of it. Such
harmful elements are in rampant use and are a threat to online safety. Hence it
is necessary to develop efficient models to detect and flag abusive memes. The
problem becomes more challenging in a low-resource setting (e.g., Bengali
memes, i.e., images with Bengali text embedded on it) because of the absence of
benchmark datasets on which AI models could be trained. In this paper we bridge
this gap by building a Bengali meme dataset. To setup an effective benchmark we
implement several baseline models for classifying abusive memes using this
dataset. We observe that multimodal models that use both textual and visual
information outperform unimodal models. Our best-performing model achieves a
macro F1 score of 70.51. Finally, we perform a qualitative error analysis of
the misclassified memes of the best-performing text-based, image-based and
multimodal models.
- Abstract(参考訳): 情報共有のためのソーシャルメディアプラットフォームの利用が劇的に増加したことも、オンラインの悪用が急増した。
個人やコミュニティを虐待するシンプルで効果的な方法は、ミームを作成することだ。
このような有害な要素は普及しており、オンラインの安全を脅かしている。
したがって、乱用ミームを検出してフラグを立てる効率的なモデルを開発する必要がある。
この問題は、AIモデルをトレーニング可能なベンチマークデータセットが存在しないため、低リソース環境(例えば、ベンガルのミーム、すなわち、ベンガルのテキストが埋め込まれた画像)ではより困難になる。
本稿では,このギャップをベンガルミームデータセットの構築によって橋渡しする。
効果的なベンチマークを設定するために、このデータセットを使用して乱用ミームを分類するためのベースラインモデルをいくつか実装します。
テキスト情報と視覚情報の両方を利用するマルチモーダルモデルは、単調モデルよりも優れている。
我々の最高の性能モデルは、マクロF1スコア70.51を達成する。
最後に,テキストベース,イメージベース,マルチモーダルモデルの誤分類されたミームの質的誤り解析を行う。
関連論文リスト
- Decoding Memes: A Comparative Study of Machine Learning Models for Template Identification [0.0]
ミームテンプレート(meme template)は、ミームを作成するのに使用されるレイアウトまたはフォーマットである。
ミームのバイラル性に関する広範な研究にもかかわらず、ミームのテンプレートを自動的に識別する作業は依然として課題である。
本稿では,既存のmemeテンプレート識別手法の総合的な比較と評価を行う。
論文 参考訳(メタデータ) (2024-08-15T12:52:06Z) - XMeCap: Meme Caption Generation with Sub-Image Adaptability [53.2509590113364]
社会的な意味や文化的な詳細に深く根ざした噂は、機械にとってユニークな挑戦である。
我々は、教師付き微調整と強化学習を採用するtextscXMeCapフレームワークを紹介した。
textscXMeCapは、シングルイメージのミームの平均評価スコアが75.85で、マルチイメージのミームは66.32で、それぞれ3.71%と4.82%で最高のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-07-24T10:51:46Z) - Deciphering Hate: Identifying Hateful Memes and Their Targets [4.574830585715128]
BHMにおけるヘイトフルミーム検出のための新しいデータセットについて紹介する。
データセットは、7,148のミームとコードミキシングされたキャプションで構成され、(i)憎しみのあるミームを検知し、(ii)ターゲットとする社会的実体を検知する。
これらの課題を解決するために,メメから重要なモダリティ特徴を体系的に抽出するマルチモーダルディープニューラルネットワークDORAを提案する。
論文 参考訳(メタデータ) (2024-03-16T06:39:41Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - Explainable Multimodal Sentiment Analysis on Bengali Memes [0.0]
ミームの根底にある感情を理解し、解釈することは、情報の時代において重要になっている。
本研究ではResNet50とBanglishBERTを用いたマルチモーダル手法を用いて0.71重み付きF1スコアの良好な結果を得た。
論文 参考訳(メタデータ) (2023-12-20T17:15:10Z) - A Template Is All You Meme [83.05919383106715]
我々は,54,000枚以上の画像からなる www.knowyourme.com で発見されたミームと情報の知識ベースをリリースする。
我々は、ミームテンプレートが、以前のアプローチから欠落したコンテキストでモデルを注入するのに使えると仮定する。
論文 参考訳(メタデータ) (2023-11-11T19:38:14Z) - Unimodal Intermediate Training for Multimodal Meme Sentiment
Classification [0.0]
本報告では、比較的豊富な感情ラベル付き一助データを用いた教師付き中間訓練の新たな変種について述べる。
本結果より, 単文データの導入により, 統計的に有意な性能向上が得られた。
下流モデルの性能を低下させることなく,ラベル付きミームのトレーニングセットを40%削減できることを示す。
論文 参考訳(メタデータ) (2023-08-01T13:14:10Z) - Benchmarking Robustness of Multimodal Image-Text Models under
Distribution Shift [50.64474103506595]
本稿では,5つのタスクに対する共通の摂動下での12のオープンソース画像テキストモデルの堅牢性について検討する。
文字レベルの摂動はテキストの最も深刻な分布シフトであり、ズームボケは画像データにとって最も深刻なシフトである。
論文 参考訳(メタデータ) (2022-12-15T18:52:03Z) - DisinfoMeme: A Multimodal Dataset for Detecting Meme Intentionally
Spreading Out Disinformation [72.18912216025029]
偽情報ミームの検出を支援するためにDisinfoMemeを提案する。
このデータセットには、COVID-19パンデミック、Black Lives Matter運動、ベジタリアン/ベジタリアンという3つのトピックをカバーするRedditのミームが含まれている。
論文 参考訳(メタデータ) (2022-05-25T09:54:59Z) - Multimodal Hate Speech Detection from Bengali Memes and Texts [0.6709991492637819]
本稿では,マルチモーダルなベンガルミームとテキストからのヘイトスピーチ検出について述べる。
我々は、ヘイトスピーチ検出のためのテキスト情報と視覚情報を分析するために、複数のニューラルネットワークを訓練する。
本研究は,ベンガル語におけるヘイトスピーチ検出にはミームが適度に有用であることが示唆する。
論文 参考訳(メタデータ) (2022-04-19T11:15:25Z) - Caption Enriched Samples for Improving Hateful Memes Detection [78.5136090997431]
憎しみのあるミームの挑戦は、ミームが憎悪であるか否かを決定するのが困難であることを示している。
ユニモーダル言語モデルとマルチモーダル視覚言語モデルの両方が人間のパフォーマンスレベルに到達できない。
論文 参考訳(メタデータ) (2021-09-22T10:57:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。