論文の概要: A Multimodal Memes Classification: A Survey and Open Research Issues
- arxiv url: http://arxiv.org/abs/2009.08395v1
- Date: Thu, 17 Sep 2020 16:13:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 08:00:25.576173
- Title: A Multimodal Memes Classification: A Survey and Open Research Issues
- Title(参考訳): マルチモーダルなミーム分類 : 調査とオープンリサーチ問題
- Authors: Tariq Habib Afridi, Aftab Alam, Muhammad Numan Khan, Jawad Khan,
Young-Koo Lee
- Abstract要約: 多くのミームは、偽情報や憎悪を抑えるために自動検閲を必要とするソーシャルメディアプラットフォームに毎日アップロードされる。
本研究の目的は,視覚言語 (VL) のマルチモーダル問題と最先端解について,ミーム分類の包括的研究を行うことである。
- 参考スコア(独自算出の注目度): 4.504833177846264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Memes are graphics and text overlapped so that together they present concepts
that become dubious if one of them is absent. It is spread mostly on social
media platforms, in the form of jokes, sarcasm, motivating, etc. After the
success of BERT in Natural Language Processing (NLP), researchers inclined to
Visual-Linguistic (VL) multimodal problems like memes classification, image
captioning, Visual Question Answering (VQA), and many more. Unfortunately, many
memes get uploaded each day on social media platforms that need automatic
censoring to curb misinformation and hate. Recently, this issue has attracted
the attention of researchers and practitioners. State-of-the-art methods that
performed significantly on other VL dataset, tends to fail on memes
classification. In this context, this work aims to conduct a comprehensive
study on memes classification, generally on the VL multimodal problems and
cutting edge solutions. We propose a generalized framework for VL problems. We
cover the early and next-generation works on VL problems. Finally, we identify
and articulate several open research issues and challenges. This is the first
study that presents the generalized view of the advanced classification
techniques concerning memes classification to the best of our knowledge. We
believe this study presents a clear road-map for the Machine Learning (ML)
research community to implement and enhance memes classification techniques.
- Abstract(参考訳): ミームはグラフィックとテキストが重なり合っており、それらのうちの1つが欠落すると疑わしい概念が提示される。
それは主に、ジョーク、皮肉、動機づけなどの形でソーシャルメディアプラットフォームに広まっている。
自然言語処理(NLP)におけるBERTの成功の後、研究者は、ミーム分類、画像キャプション、視覚質問回答(VQA)など、視覚言語学(VL)のマルチモーダル問題に傾倒した。
残念ながら、多くのミームが毎日ソーシャルメディアプラットフォームにアップロードされ、誤った情報や憎しみを抑えるために自動検閲を必要とする。
近年,この問題は研究者や実践者の注目を集めている。
他のVLデータセットで顕著に実行された最先端の手法は、ミーム分類で失敗する傾向にある。
この文脈において、この研究は、一般にVLマルチモーダル問題と最先端解に基づいて、ミーム分類に関する包括的な研究を行うことを目的としている。
本稿では,VL問題に対する一般化された枠組みを提案する。
VL問題に関する初期および次世代の研究について紹介する。
最後に,いくつかのオープン研究課題と課題を特定し,考察する。
本研究は,ミーム分類に関する先進的な分類手法の一般的な見解を,我々の知識の最も優れたものに提示する最初の研究である。
本研究は,機械学習(ml)研究コミュニティに対して,ミーム分類手法の実装と強化のための明確なロードマップを提供する。
関連論文リスト
- MemeMQA: Multimodal Question Answering for Memes via Rationale-Based Inferencing [53.30190591805432]
構造化された質問に対する正確な応答を求めるマルチモーダルな質問応答フレームワークであるMemeMQAを紹介する。
また,MemeMQAに対処する新しい2段階マルチモーダルフレームワークであるARSENALを提案する。
論文 参考訳(メタデータ) (2024-05-18T07:44:41Z) - Zero shot VLMs for hate meme detection: Are we there yet? [9.970031080934003]
本研究では,ヘイト・ミーム検出などの複雑なタスクに対する視覚言語モデルの有効性について検討した。
我々は、大きなVLMが未だにゼロショットのヘイトミーム検出に弱いことを観察する。
論文 参考訳(メタデータ) (2024-02-19T15:03:04Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - Beneath the Surface: Unveiling Harmful Memes with Multimodal Reasoning
Distilled from Large Language Models [17.617187709968242]
既存の有害なミーム検出手法は、端から端までの分類方法において、表面的な害を示す信号のみを認識する。
本稿では,多モーダル融合を改善するために,大規模言語モデルから合理的な思考を学習するための新しい生成フレームワークを提案する。
提案手法は,有害ミーム検出タスクにおける最先端手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-12-09T01:59:11Z) - SemiMemes: A Semi-supervised Learning Approach for Multimodal Memes
Analysis [0.0]
SemiMemesは、自動エンコーダと分類タスクを組み合わせて、リソース豊富な未ラベルデータを利用する新しいトレーニング手法である。
本研究は、他のマルチモーダル・セミ教師あり学習モデルよりも優れた、マルチモーダル・セミ教師あり学習手法を提案する。
論文 参考訳(メタデータ) (2023-03-31T11:22:03Z) - DisinfoMeme: A Multimodal Dataset for Detecting Meme Intentionally
Spreading Out Disinformation [72.18912216025029]
偽情報ミームの検出を支援するためにDisinfoMemeを提案する。
このデータセットには、COVID-19パンデミック、Black Lives Matter運動、ベジタリアン/ベジタリアンという3つのトピックをカバーするRedditのミームが含まれている。
論文 参考訳(メタデータ) (2022-05-25T09:54:59Z) - DISARM: Detecting the Victims Targeted by Harmful Memes [49.12165815990115]
DISARMは、有害なミームを検出するために名前付きエンティティ認識と個人識別を使用するフレームワークである。
DISARMは10の単一モーダル・マルチモーダルシステムより著しく優れていることを示す。
複数の強力なマルチモーダルライバルに対して、有害なターゲット識別の相対誤差率を最大9ポイントまで下げることができる。
論文 参考訳(メタデータ) (2022-05-11T19:14:26Z) - Detecting and Understanding Harmful Memes: A Survey [48.135415967633676]
我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
論文 参考訳(メタデータ) (2022-05-09T13:43:27Z) - Deep Image Deblurring: A Survey [165.32391279761006]
低レベルのコンピュータビジョンにおいて、デブロアリングは古典的な問題であり、ぼやけた入力画像からシャープなイメージを復元することを目的としている。
近年のディープラーニングの進歩は、この問題の解決に大きな進歩をもたらした。
論文 参考訳(メタデータ) (2022-01-26T01:31:30Z) - Detecting Hate Speech in Multi-modal Memes [14.036769355498546]
我々は,マルチモーダルミームにおけるヘイトスピーチ検出に着目し,ミームが興味深いマルチモーダル融合問題を引き起こす。
Facebook Meme Challenge citekiela 2020hatefulは、ミームが憎悪であるかどうかを予測するバイナリ分類問題を解決することを目的としている。
論文 参考訳(メタデータ) (2020-12-29T18:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。