論文の概要: AOMD: An Analogy-aware Approach to Offensive Meme Detection on Social
Media
- arxiv url: http://arxiv.org/abs/2106.11229v1
- Date: Mon, 21 Jun 2021 16:16:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 15:20:21.763187
- Title: AOMD: An Analogy-aware Approach to Offensive Meme Detection on Social
Media
- Title(参考訳): AOMD:ソーシャルメディア上での攻撃的ミーム検出のためのアナロジー対応アプローチ
- Authors: Lanyu Shang, Yang Zhang, Yuheng Zha, Yingxi Chen, Christina Youn, Dong
Wang
- Abstract要約: 既存の攻撃的なミーム検出ソリューションは、ミームの視覚的内容とテキスト的内容の間の暗黙の関係を無視することが多い。
我々は,ミームのマルチモーダルな内容から暗黙的な類似を学習するための,ディープラーニングに基づくAnalogy-aware Offensive Meme Detectionフレームワークを開発した。
- 参考スコア(独自算出の注目度): 7.651150876487822
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper focuses on an important problem of detecting offensive analogy
meme on online social media where the visual content and the texts/captions of
the meme together make an analogy to convey the offensive information. Existing
offensive meme detection solutions often ignore the implicit relation between
the visual and textual contents of the meme and are insufficient to identify
the offensive analogy memes. Two important challenges exist in accurately
detecting the offensive analogy memes: i) it is not trivial to capture the
analogy that is often implicitly conveyed by a meme; ii) it is also challenging
to effectively align the complex analogy across different data modalities in a
meme. To address the above challenges, we develop a deep learning based
Analogy-aware Offensive Meme Detection (AOMD) framework to learn the implicit
analogy from the multi-modal contents of the meme and effectively detect
offensive analogy memes. We evaluate AOMD on two real-world datasets from
online social media. Evaluation results show that AOMD achieves significant
performance gains compared to state-of-the-art baselines by detecting offensive
analogy memes more accurately.
- Abstract(参考訳): 本稿では,オンラインソーシャルメディア上でのアグレッシブ・アナロジー・ミームの検出において,視覚コンテンツとミームのテキスト・字幕を併用してアグレッシブ情報を伝達する重要な課題について述べる。
既存の攻撃的ミーム検出ソリューションは、しばしばミームの視覚的内容とテキスト的内容の間の暗黙的な関係を無視し、攻撃的類似ミームを特定するのに不十分である。
攻撃的アナロジーミームを正確に検出する上で2つの重要な課題が存在する: i) ミームによって暗黙的に伝達されるアナロジーを捉えることは自明ではない; i) ミーム内の異なるデータモダリティ間で複雑なアナロジーを効果的に整合させることも困難である。
このような課題に対処するため,我々は,ミームのマルチモーダルな内容から暗黙的な類似を学習し,攻撃的類似を効果的に検出する,深層学習に基づくAOMD(Analogy-aware Offensive Meme Detection)フレームワークを開発した。
オンラインソーシャルメディアから2つの実世界のデータセット上でAOMDを評価する。
評価結果から,AOMDは,攻撃的アナログミームをより正確に検出することにより,最先端のベースラインと比較して高い性能向上を達成することが示された。
関連論文リスト
- Evolver: Chain-of-Evolution Prompting to Boost Large Multimodal Models for Hateful Meme Detection [49.122777764853055]
ヘイトフルミーム検出のためのLMM(Large Multimodal Models)の可能性を探る。
提案するEvolverは,Chain-of-Evolution (CoE) Promptingを介してLMMを組み込む。
Evolverは、ステップバイステップでLMMを通してミームと理由の進化と表現のプロセスをシミュレートする。
論文 参考訳(メタデータ) (2024-07-30T17:51:44Z) - What Makes a Meme a Meme? Identifying Memes for Memetics-Aware Dataset Creation [0.9217021281095907]
マルチモーダルインターネットミームは現在、オンライン談話におけるユビキタスなフィクスチャとなっている。
ミームはミームを模倣してシンボルに変換する過程である。
我々は,ミームと非ミームコンテンツとを識別するミーム識別プロトコルを開発した。
論文 参考訳(メタデータ) (2024-07-16T15:48:36Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - A Template Is All You Meme [83.05919383106715]
我々は,54,000枚以上の画像からなる www.knowyourme.com で発見されたミームと情報の知識ベースをリリースする。
我々は、ミームテンプレートが、以前のアプローチから欠落したコンテキストでモデルを注入するのに使えると仮定する。
論文 参考訳(メタデータ) (2023-11-11T19:38:14Z) - DisinfoMeme: A Multimodal Dataset for Detecting Meme Intentionally
Spreading Out Disinformation [72.18912216025029]
偽情報ミームの検出を支援するためにDisinfoMemeを提案する。
このデータセットには、COVID-19パンデミック、Black Lives Matter運動、ベジタリアン/ベジタリアンという3つのトピックをカバーするRedditのミームが含まれている。
論文 参考訳(メタデータ) (2022-05-25T09:54:59Z) - DISARM: Detecting the Victims Targeted by Harmful Memes [49.12165815990115]
DISARMは、有害なミームを検出するために名前付きエンティティ認識と個人識別を使用するフレームワークである。
DISARMは10の単一モーダル・マルチモーダルシステムより著しく優れていることを示す。
複数の強力なマルチモーダルライバルに対して、有害なターゲット識別の相対誤差率を最大9ポイントまで下げることができる。
論文 参考訳(メタデータ) (2022-05-11T19:14:26Z) - Detecting Harmful Memes and Their Targets [27.25262711136056]
COVID-19に関連する3,544のミームを含む最初のベンチマークデータセットであるHarMemeを紹介します。
第1段階では、ミームを非常に有害、部分的に有害、または無害とラベル付けし、第2段階では、有害ミームが示す標的の種類をさらにアノテートした。
10の単一モーダルモデルとマルチモーダルモデルによる評価結果は、両方のタスクにマルチモーダル信号を使用することの重要性を強調している。
論文 参考訳(メタデータ) (2021-09-24T17:11:42Z) - MOMENTA: A Multimodal Framework for Detecting Harmful Memes and Their
Targets [28.877314859737197]
我々は,有害ミームの検出と,対象とする社会的実体の特定という,新たな2つの課題を解決しようとしている。
特に,有害ミームの検出と,対象とする社会的実体の特定という,新たな2つの課題の解決を目指す。
我々は,世界的および地域的視点を用いて有害ミームを検出する,新しいマルチモーダル(テキスト+画像)ディープニューラルモデルMOMENTAを提案する。
論文 参考訳(メタデータ) (2021-09-11T04:29:32Z) - Memes in the Wild: Assessing the Generalizability of the Hateful Memes
Challenge Dataset [47.65948529524281]
Pinterestからヘイトフルで非ヘイトフルなミームを収集して、Facebookデータセットで事前トレーニングされたモデルで、サンプル外のパフォーマンスを評価します。
1) キャプションをOCRで抽出しなければならない,2) ミームは従来のミームよりも多様であり, 会話のスクリーンショットやテキストをプレーンな背景に表示する,という2つの重要な側面がある。
論文 参考訳(メタデータ) (2021-07-09T09:04:05Z) - Multimodal Learning for Hateful Memes Detection [6.6881085567421605]
本稿では,画像キャプション処理をミーム検出プロセスに組み込む新しい手法を提案する。
本モデルは,Hateful Memes Detection Challengeにおける有望な結果を得る。
論文 参考訳(メタデータ) (2020-11-25T16:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。