論文の概要: An Interpretable Approach to Hateful Meme Detection
- arxiv url: http://arxiv.org/abs/2108.10069v1
- Date: Mon, 9 Aug 2021 18:28:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-29 12:09:56.350610
- Title: An Interpretable Approach to Hateful Meme Detection
- Title(参考訳): ヘイトフルミーム検出への解釈可能なアプローチ
- Authors: Tanvi Deshpande and Nitya Mani
- Abstract要約: 憎しみに満ちたミームは、インターネット上で憎しみを広める新しい方法だ。
機械学習を用いたミーム検出に対して,解釈可能なアプローチをとる。
我々は、勾配ブースト決定木とLSTMに基づくモデルを構築し、同等のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Hateful memes are an emerging method of spreading hate on the internet,
relying on both images and text to convey a hateful message. We take an
interpretable approach to hateful meme detection, using machine learning and
simple heuristics to identify the features most important to classifying a meme
as hateful. In the process, we build a gradient-boosted decision tree and an
LSTM-based model that achieve comparable performance (73.8 validation and 72.7
test auROC) to the gold standard of humans and state-of-the-art transformer
models on this challenging task.
- Abstract(参考訳): 憎悪のミームは、憎悪のメッセージを伝えるために画像とテキストの両方を頼りに、インターネット上で憎悪を広める新しい方法だ。
我々は、機械学習と単純なヒューリスティックスを用いて、憎悪のミームを分類する上で最も重要な特徴を特定する、憎悪のミーム検出に対する解釈可能なアプローチを取る。
この過程で我々は,人間のゴールドスタンダードに匹敵する性能(73.8バリデーションと72.7テストauROC)と,この課題に対する最先端のトランスフォーマーモデルを実現するLSTMモデルを構築した。
関連論文リスト
- XMeCap: Meme Caption Generation with Sub-Image Adaptability [53.2509590113364]
社会的な意味や文化的な詳細に深く根ざした噂は、機械にとってユニークな挑戦である。
我々は、教師付き微調整と強化学習を採用するtextscXMeCapフレームワークを紹介した。
textscXMeCapは、シングルイメージのミームの平均評価スコアが75.85で、マルチイメージのミームは66.32で、それぞれ3.71%と4.82%で最高のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-07-24T10:51:46Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - Beneath the Surface: Unveiling Harmful Memes with Multimodal Reasoning
Distilled from Large Language Models [17.617187709968242]
既存の有害なミーム検出手法は、端から端までの分類方法において、表面的な害を示す信号のみを認識する。
本稿では,多モーダル融合を改善するために,大規模言語モデルから合理的な思考を学習するための新しい生成フレームワークを提案する。
提案手法は,有害ミーム検出タスクにおける最先端手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-12-09T01:59:11Z) - MetaCloak: Preventing Unauthorized Subject-driven Text-to-image Diffusion-based Synthesis via Meta-learning [59.988458964353754]
テキストから画像への拡散モデルにより、スキャンされた参照写真からパーソナライズされた画像をシームレスに生成できる。
既存のアプローチは、悪意のある使用から"学習不能"なイメージをレンダリングするために、知覚不可能な方法でユーザーイメージを摂動させる。
メタ学習フレームワークを用いて,バイレベル中毒の問題を解決するメタクラックを提案する。
論文 参考訳(メタデータ) (2023-11-22T03:31:31Z) - Improving Hateful Meme Detection through Retrieval-Guided Contrastive Learning [13.690436954062015]
本稿では,検索誘導型コントラスト学習により,ヘイトフルネスを考慮した埋め込み空間を構築することを提案する。
提案手法は,87.0のAUROCでHatefulMemesデータセット上での最先端性能を実現し,より大規模なマルチモーダルモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-11-14T12:14:54Z) - Decoding the Underlying Meaning of Multimodal Hateful Memes [4.509263496823139]
本稿では,Hateful meme with Reasons dataset (HatReD)を紹介する。
HatReDは新しいマルチモーダルなヘイトフルなミームデータセットで、その基盤となるヘイトフルなコンテキスト的理由を注釈付けしている。
また、ヘイトフルミームを説明するための基本的な理由を自動的に生成することを目的とした、新しい条件生成タスクも定義する。
論文 参考訳(メタデータ) (2023-05-28T10:02:59Z) - StraIT: Non-autoregressive Generation with Stratified Image Transformer [63.158996766036736]
Stratified Image Transformer(StraIT)は、純粋な非自己回帰(NAR)生成モデルである。
実験の結果,StraIT は NAR 生成を著しく改善し,既存の DM および AR 手法より優れていた。
論文 参考訳(メタデータ) (2023-03-01T18:59:33Z) - Hate-CLIPper: Multimodal Hateful Meme Classification based on
Cross-modal Interaction of CLIP Features [5.443781798915199]
憎しみを込めたミームはソーシャルメディアの脅威になりつつある。
憎しみに満ちたミームを 検出するには 視覚情報とテキスト情報の両方を 慎重に考慮する必要がある
本稿では,Hate-CLIPperアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-10-12T04:34:54Z) - Exploring The Role of Mean Teachers in Self-supervised Masked
Auto-Encoders [64.03000385267339]
マスク付き画像モデリング(MIM)は視覚変換器を用いた視覚表現の自己教師型学習(SSL)の一般的な戦略となっている。
簡単なSSL方式であるRC-MAE(Restruction-Consistent Masked Auto-Encoder)を提案する。
RC-MAEは、事前学習中に最先端の自己蒸留法よりも早く収束し、メモリ使用量の削減を必要とする。
論文 参考訳(メタデータ) (2022-10-05T08:08:55Z) - Caption Enriched Samples for Improving Hateful Memes Detection [78.5136090997431]
憎しみのあるミームの挑戦は、ミームが憎悪であるか否かを決定するのが困難であることを示している。
ユニモーダル言語モデルとマルチモーダル視覚言語モデルの両方が人間のパフォーマンスレベルに到達できない。
論文 参考訳(メタデータ) (2021-09-22T10:57:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。