論文の概要: The Hateful Memes Challenge Next Move
- arxiv url: http://arxiv.org/abs/2212.06655v1
- Date: Tue, 13 Dec 2022 15:37:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 13:25:38.058197
- Title: The Hateful Memes Challenge Next Move
- Title(参考訳): ヘイトフルミームは次の動きに挑戦する
- Authors: Weijun Jin and Lance Wilhelm
- Abstract要約: ヘイトフルミームのようなテキストに埋め込まれた画像は、良心的な共同創設者のような難しい例がデータセットに組み込まれている場合、ユニモーダル推論を使って分類するのが困難である。
私たちは、Hateful Meme Challengeで優勝したチームのフレームワークに基づいて、Facebook AIのHateful Memesデータセットに加えて、より多くのラベル付きミームを生成しようとしています。
ラベル付きデータに対する半教師付き学習課題には人間の介入とフィルタリングが必要であり、新しいデータに限られた量を加えると、余分な分類性能が得られないことが判明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: State-of-the-art image and text classification models, such as Convectional
Neural Networks and Transformers, have long been able to classify their
respective unimodal reasoning satisfactorily with accuracy close to or
exceeding human accuracy. However, images embedded with text, such as hateful
memes, are hard to classify using unimodal reasoning when difficult examples,
such as benign confounders, are incorporated into the data set. We attempt to
generate more labeled memes in addition to the Hateful Memes data set from
Facebook AI, based on the framework of a winning team from the Hateful Meme
Challenge. To increase the number of labeled memes, we explore semi-supervised
learning using pseudo-labels for newly introduced, unlabeled memes gathered
from the Memotion Dataset 7K. We find that the semi-supervised learning task on
unlabeled data required human intervention and filtering and that adding a
limited amount of new data yields no extra classification performance.
- Abstract(参考訳): Convectional Neural NetworksやTransformersのような最先端の画像とテキストの分類モデルは、人間の正確性に近い精度で、それぞれの一助的推論を満足して分類することができる。
しかし、嫌悪感のあるミームのようなテキストで埋め込まれた画像は、良性共作者のような難しい例がデータセットに組み込まれている場合、ユニモーダル推論を使って分類することは困難である。
私たちは、Hateful Meme Challengeで優勝したチームのフレームワークに基づいて、Facebook AIのHateful Memesデータセットに加えて、より多くのラベル付きミームを生成しようとしています。
ラベル付きミームの数を増やすため,Memotion Dataset 7Kから収集した新たなラベル付きミームに対して擬似ラベルを用いた半教師付き学習を提案する。
ラベル付きデータに対する半教師付き学習課題には人間の介入とフィルタリングが必要であり、新しいデータに限られた量を加えると、余分な分類性能が得られないことが判明した。
関連論文リスト
- Decoding Memes: A Comparative Study of Machine Learning Models for Template Identification [0.0]
ミームテンプレート(meme template)は、ミームを作成するのに使用されるレイアウトまたはフォーマットである。
ミームのバイラル性に関する広範な研究にもかかわらず、ミームのテンプレートを自動的に識別する作業は依然として課題である。
本稿では,既存のmemeテンプレート識別手法の総合的な比較と評価を行う。
論文 参考訳(メタデータ) (2024-08-15T12:52:06Z) - XMeCap: Meme Caption Generation with Sub-Image Adaptability [53.2509590113364]
社会的な意味や文化的な詳細に深く根ざした噂は、機械にとってユニークな挑戦である。
我々は、教師付き微調整と強化学習を採用するtextscXMeCapフレームワークを紹介した。
textscXMeCapは、シングルイメージのミームの平均評価スコアが75.85で、マルチイメージのミームは66.32で、それぞれ3.71%と4.82%で最高のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-07-24T10:51:46Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - A Template Is All You Meme [83.05919383106715]
我々は,54,000枚以上の画像からなる www.knowyourme.com で発見されたミームと情報の知識ベースをリリースする。
我々は、ミームテンプレートが、以前のアプローチから欠落したコンテキストでモデルを注入するのに使えると仮定する。
論文 参考訳(メタデータ) (2023-11-11T19:38:14Z) - Unimodal Intermediate Training for Multimodal Meme Sentiment
Classification [0.0]
本報告では、比較的豊富な感情ラベル付き一助データを用いた教師付き中間訓練の新たな変種について述べる。
本結果より, 単文データの導入により, 統計的に有意な性能向上が得られた。
下流モデルの性能を低下させることなく,ラベル付きミームのトレーニングセットを40%削減できることを示す。
論文 参考訳(メタデータ) (2023-08-01T13:14:10Z) - MemeFier: Dual-stage Modality Fusion for Image Meme Classification [8.794414326545697]
画像ミームのような新しいデジタルコンテンツは、マルチモーダル手段を用いてヘイトを広めるきっかけとなった。
インターネット画像ミームのきめ細かい分類のためのディープラーニングアーキテクチャであるMemeFierを提案する。
論文 参考訳(メタデータ) (2023-04-06T07:36:52Z) - DisinfoMeme: A Multimodal Dataset for Detecting Meme Intentionally
Spreading Out Disinformation [72.18912216025029]
偽情報ミームの検出を支援するためにDisinfoMemeを提案する。
このデータセットには、COVID-19パンデミック、Black Lives Matter運動、ベジタリアン/ベジタリアンという3つのトピックをカバーするRedditのミームが含まれている。
論文 参考訳(メタデータ) (2022-05-25T09:54:59Z) - Caption Enriched Samples for Improving Hateful Memes Detection [78.5136090997431]
憎しみのあるミームの挑戦は、ミームが憎悪であるか否かを決定するのが困難であることを示している。
ユニモーダル言語モデルとマルチモーダル視覚言語モデルの両方が人間のパフォーマンスレベルに到達できない。
論文 参考訳(メタデータ) (2021-09-22T10:57:51Z) - Memes in the Wild: Assessing the Generalizability of the Hateful Memes
Challenge Dataset [47.65948529524281]
Pinterestからヘイトフルで非ヘイトフルなミームを収集して、Facebookデータセットで事前トレーニングされたモデルで、サンプル外のパフォーマンスを評価します。
1) キャプションをOCRで抽出しなければならない,2) ミームは従来のミームよりも多様であり, 会話のスクリーンショットやテキストをプレーンな背景に表示する,という2つの重要な側面がある。
論文 参考訳(メタデータ) (2021-07-09T09:04:05Z) - Multimodal Learning for Hateful Memes Detection [6.6881085567421605]
本稿では,画像キャプション処理をミーム検出プロセスに組み込む新しい手法を提案する。
本モデルは,Hateful Memes Detection Challengeにおける有望な結果を得る。
論文 参考訳(メタデータ) (2020-11-25T16:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。