論文の概要: Prompting for Multimodal Hateful Meme Classification
- arxiv url: http://arxiv.org/abs/2302.04156v1
- Date: Wed, 8 Feb 2023 16:04:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-09 15:44:49.899491
- Title: Prompting for Multimodal Hateful Meme Classification
- Title(参考訳): マルチモーダルHateful Meme分類のためのプロンプト
- Authors: Rui Cao, Roy Ka-Wei Lee, Wen-Haw Chong, Jing Jiang
- Abstract要約: 本稿では,ヘイトフルミーム分類のための事前学習型言語モデルであるPromptHateを提案する。
我々は、公開可能な2つのヘイトフルおよび攻撃的なミームデータセットに対して広範な実験を行う。
実験の結果,PromptHateは90.96のAUCを達成でき,ヘイトフルなミーム分類タスクにおいて最先端のベースラインを達成できることがわかった。
- 参考スコア(独自算出の注目度): 13.437669262442888
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hateful meme classification is a challenging multimodal task that requires
complex reasoning and contextual background knowledge. Ideally, we could
leverage an explicit external knowledge base to supplement contextual and
cultural information in hateful memes. However, there is no known explicit
external knowledge base that could provide such hate speech contextual
information. To address this gap, we propose PromptHate, a simple yet effective
prompt-based model that prompts pre-trained language models (PLMs) for hateful
meme classification. Specifically, we construct simple prompts and provide a
few in-context examples to exploit the implicit knowledge in the pre-trained
RoBERTa language model for hateful meme classification. We conduct extensive
experiments on two publicly available hateful and offensive meme datasets. Our
experimental results show that PromptHate is able to achieve a high AUC of
90.96, outperforming state-of-the-art baselines on the hateful meme
classification task. We also perform fine-grained analyses and case studies on
various prompt settings and demonstrate the effectiveness of the prompts on
hateful meme classification.
- Abstract(参考訳): 憎しみのあるミーム分類は複雑な推論と背景知識を必要とする複雑なマルチモーダルタスクである。
理想的には、明示的な外部知識ベースを利用して、憎悪のあるミームで文脈的、文化的情報を補うことができる。
しかし、そのようなヘイトスピーチの文脈情報を提供できるような明示的な外部知識ベースは存在しない。
このギャップに対処するために,憎しみのあるミーム分類のための事前学習言語モデル(PLM)を誘導する,シンプルで効果的なプロンプトベースモデルであるPromptHateを提案する。
具体的には、単純なプロンプトを構築し、ヘイトフルミーム分類のための事前学習されたRoBERTa言語モデルにおける暗黙の知識を利用するためのいくつかのコンテキスト内例を提供する。
我々は、公開可能な2つの憎悪と攻撃的なミームデータセットに対して広範な実験を行う。
実験の結果,PromptHateは90.96のAUCを達成でき,ヘイトフルなミーム分類タスクにおいて最先端のベースラインを達成できることがわかった。
また,様々なプロンプト設定のきめ細かい分析とケーススタディを行い,ヘイトフルミーム分類におけるプロンプトの有効性を実証した。
関連論文リスト
- XMeCap: Meme Caption Generation with Sub-Image Adaptability [53.2509590113364]
社会的な意味や文化的な詳細に深く根ざした噂は、機械にとってユニークな挑戦である。
我々は、教師付き微調整と強化学習を採用するtextscXMeCapフレームワークを紹介した。
textscXMeCapは、シングルイメージのミームの平均評価スコアが75.85で、マルチイメージのミームは66.32で、それぞれ3.71%と4.82%で最高のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-07-24T10:51:46Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - Beneath the Surface: Unveiling Harmful Memes with Multimodal Reasoning
Distilled from Large Language Models [17.617187709968242]
既存の有害なミーム検出手法は、端から端までの分類方法において、表面的な害を示す信号のみを認識する。
本稿では,多モーダル融合を改善するために,大規模言語モデルから合理的な思考を学習するための新しい生成フレームワークを提案する。
提案手法は,有害ミーム検出タスクにおける最先端手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-12-09T01:59:11Z) - Improving Hateful Meme Detection through Retrieval-Guided Contrastive Learning [13.690436954062015]
本稿では,検索誘導型コントラスト学習により,ヘイトフルネスを考慮した埋め込み空間を構築することを提案する。
提案手法は,87.0のAUROCでHatefulMemesデータセット上での最先端性能を実現し,より大規模なマルチモーダルモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-11-14T12:14:54Z) - A Template Is All You Meme [83.05919383106715]
我々は,54,000枚以上の画像からなる www.knowyourme.com で発見されたミームと情報の知識ベースをリリースする。
我々は、ミームテンプレートが、以前のアプローチから欠落したコンテキストでモデルを注入するのに使えると仮定する。
論文 参考訳(メタデータ) (2023-11-11T19:38:14Z) - Mapping Memes to Words for Multimodal Hateful Meme Classification [26.101116761577796]
一部のミームは悪意があり、ヘイトフルなコンテンツを宣伝し、差別を永続させる。
マルチモーダルヘイトフルミーム分類のためのISSUESという新しい手法を提案する。
提案手法は,Hateful Memes Challenge と HarMeme データセットの最先端化を実現する。
論文 参考訳(メタデータ) (2023-10-12T14:38:52Z) - Decoding the Underlying Meaning of Multimodal Hateful Memes [4.509263496823139]
本稿では,Hateful meme with Reasons dataset (HatReD)を紹介する。
HatReDは新しいマルチモーダルなヘイトフルなミームデータセットで、その基盤となるヘイトフルなコンテキスト的理由を注釈付けしている。
また、ヘイトフルミームを説明するための基本的な理由を自動的に生成することを目的とした、新しい条件生成タスクも定義する。
論文 参考訳(メタデータ) (2023-05-28T10:02:59Z) - Demystifying Prompts in Language Models via Perplexity Estimation [109.59105230163041]
プロンプトのパフォーマンスは、モデルが含んでいる言語に精通している範囲と結合している。
プロンプトの難易度が低ければ低いほど、プロンプトがタスクを実行することができることを示す。
論文 参考訳(メタデータ) (2022-12-08T02:21:47Z) - Caption Enriched Samples for Improving Hateful Memes Detection [78.5136090997431]
憎しみのあるミームの挑戦は、ミームが憎悪であるか否かを決定するのが困難であることを示している。
ユニモーダル言語モデルとマルチモーダル視覚言語モデルの両方が人間のパフォーマンスレベルに到達できない。
論文 参考訳(メタデータ) (2021-09-22T10:57:51Z) - Memes in the Wild: Assessing the Generalizability of the Hateful Memes
Challenge Dataset [47.65948529524281]
Pinterestからヘイトフルで非ヘイトフルなミームを収集して、Facebookデータセットで事前トレーニングされたモデルで、サンプル外のパフォーマンスを評価します。
1) キャプションをOCRで抽出しなければならない,2) ミームは従来のミームよりも多様であり, 会話のスクリーンショットやテキストをプレーンな背景に表示する,という2つの重要な側面がある。
論文 参考訳(メタデータ) (2021-07-09T09:04:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。