論文の概要: Detecting and Understanding Harmful Memes: A Survey
- arxiv url: http://arxiv.org/abs/2205.04274v1
- Date: Mon, 9 May 2022 13:43:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 13:50:05.352663
- Title: Detecting and Understanding Harmful Memes: A Survey
- Title(参考訳): 有害なミームの検出と理解:調査
- Authors: Shivam Sharma, Firoj Alam, Md. Shad Akhtar, Dimitar Dimitrov, Giovanni
Da San Martino, Hamed Firooz, Alon Halevy, Fabrizio Silvestri, Preslav Nakov,
Tanmoy Chakraborty
- Abstract要約: 我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
- 参考スコア(独自算出の注目度): 48.135415967633676
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The automatic identification of harmful content online is of major concern
for social media platforms, policymakers, and society. Researchers have studied
textual, visual, and audio content, but typically in isolation. Yet, harmful
content often combines multiple modalities, as in the case of memes, which are
of particular interest due to their viral nature. With this in mind, here we
offer a comprehensive survey with a focus on harmful memes. Based on a
systematic analysis of recent literature, we first propose a new typology of
harmful memes, and then we highlight and summarize the relevant state of the
art. One interesting finding is that many types of harmful memes are not really
studied, e.g., such featuring self-harm and extremism, partly due to the lack
of suitable datasets. We further find that existing datasets mostly capture
multi-class scenarios, which are not inclusive of the affective spectrum that
memes can represent. Another observation is that memes can propagate globally
through repackaging in different languages and that they can also be
multilingual, blending different cultures. We conclude by highlighting several
challenges related to multimodal semiotics, technological constraints and
non-trivial social engagement, and we present several open-ended aspects such
as delineating online harm and empirically examining related frameworks and
assistive interventions, which we believe will motivate and drive future
research.
- Abstract(参考訳): 有害コンテンツの自動識別は、ソーシャルメディアプラットフォーム、政策立案者、社会にとって大きな関心事である。
研究者はテキスト、視覚、音声のコンテンツを研究してきたが、通常は孤立している。
しかし、有害なコンテンツは、しばしば複数のモダリティを結合する(ミームの場合のように)。
これを念頭に置いて、有害ミームに焦点を当てた総合的な調査を実施します。
近年の文献を体系的に分析し,まず有害なミームの新たな類型論を提案し,その後,関連する芸術の状態を強調・要約する。
興味深い発見の1つは、多くの有害なミームが実際に研究されていないことである。
さらに、既存のデータセットは、ミームが表現できる感情スペクトルを含まない、主にマルチクラスシナリオをキャプチャする。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、異なる文化をブレンドして多言語化することもできる。
結論として,マルチモーダル・セミオティック,技術的制約,非自明な社会的関与に関するいくつかの課題を強調し,オンライン上の危害を指摘し,関連するフレームワークや支援的介入を実証的に検証し,今後の研究を動機付け,推進していくことなど,いくつかのオープンな側面を提示する。
関連論文リスト
- XMeCap: Meme Caption Generation with Sub-Image Adaptability [53.2509590113364]
社会的な意味や文化的な詳細に深く根ざした噂は、機械にとってユニークな挑戦である。
我々は、教師付き微調整と強化学習を採用するtextscXMeCapフレームワークを紹介した。
textscXMeCapは、シングルイメージのミームの平均評価スコアが75.85で、マルチイメージのミームは66.32で、それぞれ3.71%と4.82%で最高のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-07-24T10:51:46Z) - MemeMQA: Multimodal Question Answering for Memes via Rationale-Based Inferencing [53.30190591805432]
構造化された質問に対する正確な応答を求めるマルチモーダルな質問応答フレームワークであるMemeMQAを紹介する。
また,MemeMQAに対処する新しい2段階マルチモーダルフレームワークであるARSENALを提案する。
論文 参考訳(メタデータ) (2024-05-18T07:44:41Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - PromptMTopic: Unsupervised Multimodal Topic Modeling of Memes using
Large Language Models [7.388466146105024]
テキストと視覚の両方からトピックを学習する新しいマルチモーダルプロンプトベースモデルであるtextPromptMTopicを提案する。
本モデルは,テキストと視覚的モダリティ間の意味的相互作用を考慮して,ミームから学習したトピックを効果的に抽出し,クラスタ化する。
我々の研究は、今日の社会における重要なコミュニケーション形態であるミームの話題とテーマの理解に寄与する。
論文 参考訳(メタデータ) (2023-12-11T03:36:50Z) - DisinfoMeme: A Multimodal Dataset for Detecting Meme Intentionally
Spreading Out Disinformation [72.18912216025029]
偽情報ミームの検出を支援するためにDisinfoMemeを提案する。
このデータセットには、COVID-19パンデミック、Black Lives Matter運動、ベジタリアン/ベジタリアンという3つのトピックをカバーするRedditのミームが含まれている。
論文 参考訳(メタデータ) (2022-05-25T09:54:59Z) - DISARM: Detecting the Victims Targeted by Harmful Memes [49.12165815990115]
DISARMは、有害なミームを検出するために名前付きエンティティ認識と個人識別を使用するフレームワークである。
DISARMは10の単一モーダル・マルチモーダルシステムより著しく優れていることを示す。
複数の強力なマルチモーダルライバルに対して、有害なターゲット識別の相対誤差率を最大9ポイントまで下げることができる。
論文 参考訳(メタデータ) (2022-05-11T19:14:26Z) - TeamX@DravidianLangTech-ACL2022: A Comparative Analysis for Troll-Based
Meme Classification [21.32190107220764]
ネット上の有害コンテンツは ソーシャルメディアプラットフォーム、政府機関、政策立案者、社会全体の間で 懸念を高めました
有害コンテンツに基づくオンラインコンテンツは、その1つで、挑発的、攻撃的、あるいは威圧的なメッセージを、視聴者を誤解させる意図で投稿する、というものだ。
本研究は,テキスト,ビジュアル,マルチモーダルコンテンツを用いて,トロルに基づくミーム分類の比較分析を行った。
論文 参考訳(メタデータ) (2022-05-09T16:19:28Z) - Detecting Harmful Memes and Their Targets [27.25262711136056]
COVID-19に関連する3,544のミームを含む最初のベンチマークデータセットであるHarMemeを紹介します。
第1段階では、ミームを非常に有害、部分的に有害、または無害とラベル付けし、第2段階では、有害ミームが示す標的の種類をさらにアノテートした。
10の単一モーダルモデルとマルチモーダルモデルによる評価結果は、両方のタスクにマルチモーダル信号を使用することの重要性を強調している。
論文 参考訳(メタデータ) (2021-09-24T17:11:42Z) - MOMENTA: A Multimodal Framework for Detecting Harmful Memes and Their
Targets [28.877314859737197]
我々は,有害ミームの検出と,対象とする社会的実体の特定という,新たな2つの課題を解決しようとしている。
特に,有害ミームの検出と,対象とする社会的実体の特定という,新たな2つの課題の解決を目指す。
我々は,世界的および地域的視点を用いて有害ミームを検出する,新しいマルチモーダル(テキスト+画像)ディープニューラルモデルMOMENTAを提案する。
論文 参考訳(メタデータ) (2021-09-11T04:29:32Z) - A Multimodal Memes Classification: A Survey and Open Research Issues [4.504833177846264]
多くのミームは、偽情報や憎悪を抑えるために自動検閲を必要とするソーシャルメディアプラットフォームに毎日アップロードされる。
本研究の目的は,視覚言語 (VL) のマルチモーダル問題と最先端解について,ミーム分類の包括的研究を行うことである。
論文 参考訳(メタデータ) (2020-09-17T16:13:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。