論文の概要: DisinfoMeme: A Multimodal Dataset for Detecting Meme Intentionally
Spreading Out Disinformation
- arxiv url: http://arxiv.org/abs/2205.12617v1
- Date: Wed, 25 May 2022 09:54:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 12:33:49.124185
- Title: DisinfoMeme: A Multimodal Dataset for Detecting Meme Intentionally
Spreading Out Disinformation
- Title(参考訳): DisinfoMeme: 意図しない情報の拡散を検出するマルチモーダルデータセット
- Authors: Jingnong Qu, Liunian Harold Li, Jieyu Zhao, Sunipa Dev, Kai-Wei Chang
- Abstract要約: 偽情報ミームの検出を支援するためにDisinfoMemeを提案する。
このデータセットには、COVID-19パンデミック、Black Lives Matter運動、ベジタリアン/ベジタリアンという3つのトピックをカバーするRedditのミームが含まれている。
- 参考スコア(独自算出の注目度): 72.18912216025029
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Disinformation has become a serious problem on social media. In particular,
given their short format, visual attraction, and humorous nature, memes have a
significant advantage in dissemination among online communities, making them an
effective vehicle for the spread of disinformation. We present DisinfoMeme to
help detect disinformation memes. The dataset contains memes mined from Reddit
covering three current topics: the COVID-19 pandemic, the Black Lives Matter
movement, and veganism/vegetarianism. The dataset poses multiple unique
challenges: limited data and label imbalance, reliance on external knowledge,
multimodal reasoning, layout dependency, and noise from OCR. We test multiple
widely-used unimodal and multimodal models on this dataset. The experiments
show that the room for improvement is still huge for current models.
- Abstract(参考訳): 偽情報はソーシャルメディアで深刻な問題となっている。
特に、短いフォーマット、視覚的魅力、ユーモラスな性質を考えると、ミームはオンラインコミュニティ間の普及において大きな優位性を持ち、偽情報の拡散に有効な手段となっている。
非情報ミームの検出にdisinfomemeを提案する。
データセットには、covid-19パンデミック、black lives matter運動、veganism/vegetarianismの3つのトピックをカバーするredditのミームが含まれている。
データセットには、制限されたデータとラベルの不均衡、外部知識への依存、マルチモーダル推論、レイアウト依存性、OCRからのノイズなど、さまざまなユニークな課題がある。
このデータセット上で、広く使われている複数の単調モデルとマルチモーダルモデルをテストする。
実験によると、現在のモデルでは改善の余地はまだ大きい。
関連論文リスト
- Evolver: Chain-of-Evolution Prompting to Boost Large Multimodal Models for Hateful Meme Detection [49.122777764853055]
ヘイトフルミーム検出のためのLMM(Large Multimodal Models)の可能性を探る。
提案するEvolverは,Chain-of-Evolution (CoE) Promptingを介してLMMを組み込む。
Evolverは、ステップバイステップでLMMを通してミームと理由の進化と表現のプロセスをシミュレートする。
論文 参考訳(メタデータ) (2024-07-30T17:51:44Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - Characterizing the Entities in Harmful Memes: Who is the Hero, the
Villain, the Victim? [39.55435707149863]
我々は、ミームが参照するエンティティを栄光し、悪用し、または犠牲にするかどうかを理解することを目指している。
提案モデルでは,最高のベースラインに対して4%,最も競合するスタンドアローンのサブミッションに対して1%の改善が達成されている。
論文 参考訳(メタデータ) (2023-01-26T16:55:15Z) - The Hateful Memes Challenge Next Move [0.0]
ヘイトフルミームのようなテキストに埋め込まれた画像は、良心的な共同創設者のような難しい例がデータセットに組み込まれている場合、ユニモーダル推論を使って分類するのが困難である。
私たちは、Hateful Meme Challengeで優勝したチームのフレームワークに基づいて、Facebook AIのHateful Memesデータセットに加えて、より多くのラベル付きミームを生成しようとしています。
ラベル付きデータに対する半教師付き学習課題には人間の介入とフィルタリングが必要であり、新しいデータに限られた量を加えると、余分な分類性能が得られないことが判明した。
論文 参考訳(メタデータ) (2022-12-13T15:37:53Z) - DISARM: Detecting the Victims Targeted by Harmful Memes [49.12165815990115]
DISARMは、有害なミームを検出するために名前付きエンティティ認識と個人識別を使用するフレームワークである。
DISARMは10の単一モーダル・マルチモーダルシステムより著しく優れていることを示す。
複数の強力なマルチモーダルライバルに対して、有害なターゲット識別の相対誤差率を最大9ポイントまで下げることができる。
論文 参考訳(メタデータ) (2022-05-11T19:14:26Z) - Detecting and Understanding Harmful Memes: A Survey [48.135415967633676]
我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
論文 参考訳(メタデータ) (2022-05-09T13:43:27Z) - Feels Bad Man: Dissecting Automated Hateful Meme Detection Through the
Lens of Facebook's Challenge [10.775419935941008]
我々は,現在最先端のマルチモーダル機械学習モデルのヘイトフルミーム検出に対する有効性を評価する。
4chanの"Politically Incorrect"ボード(/pol/)とFacebookのHateful Memes Challengeデータセットの12,140と10,567の2つのベンチマークデータセットを使用します。
分類性能におけるマルチモーダリティの重要性,主流のソーシャルプラットフォーム上でのWebコミュニティの影響力,その逆の3つの実験を行った。
論文 参考訳(メタデータ) (2022-02-17T07:52:22Z) - MOMENTA: A Multimodal Framework for Detecting Harmful Memes and Their
Targets [28.877314859737197]
我々は,有害ミームの検出と,対象とする社会的実体の特定という,新たな2つの課題を解決しようとしている。
特に,有害ミームの検出と,対象とする社会的実体の特定という,新たな2つの課題の解決を目指す。
我々は,世界的および地域的視点を用いて有害ミームを検出する,新しいマルチモーダル(テキスト+画像)ディープニューラルモデルMOMENTAを提案する。
論文 参考訳(メタデータ) (2021-09-11T04:29:32Z) - Memes in the Wild: Assessing the Generalizability of the Hateful Memes
Challenge Dataset [47.65948529524281]
Pinterestからヘイトフルで非ヘイトフルなミームを収集して、Facebookデータセットで事前トレーニングされたモデルで、サンプル外のパフォーマンスを評価します。
1) キャプションをOCRで抽出しなければならない,2) ミームは従来のミームよりも多様であり, 会話のスクリーンショットやテキストをプレーンな背景に表示する,という2つの重要な側面がある。
論文 参考訳(メタデータ) (2021-07-09T09:04:05Z) - Multimodal Learning for Hateful Memes Detection [6.6881085567421605]
本稿では,画像キャプション処理をミーム検出プロセスに組み込む新しい手法を提案する。
本モデルは,Hateful Memes Detection Challengeにおける有望な結果を得る。
論文 参考訳(メタデータ) (2020-11-25T16:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。