論文の概要: TrollsWithOpinion: A Dataset for Predicting Domain-specific Opinion
Manipulation in Troll Memes
- arxiv url: http://arxiv.org/abs/2109.03571v1
- Date: Wed, 8 Sep 2021 12:12:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-09 22:08:35.233242
- Title: TrollsWithOpinion: A Dataset for Predicting Domain-specific Opinion
Manipulation in Troll Memes
- Title(参考訳): TrollsWithOpinion: トロールミームにおけるドメイン固有のオピニオン操作を予測するデータセット
- Authors: Shardul Suryawanshi, Bharathi Raja Chakravarthi, Mihael Arcan, Suzanne
Little, Paul Buitelaar
- Abstract要約: 我々は英語で8,881 IWTまたはマルチモーダルミームを分類する(TrollsWith データセット)
これらのミームは、デミア、ハラス、またはいじめ対象の個人を誘惑する可能性がある。
我々は注釈付きデータセットのベースライン実験を行い、既存の最先端技術が平均0.37の重み付きF1スコアにしか達しないことを示した。
- 参考スコア(独自算出の注目度): 4.513166202592557
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Research into the classification of Image with Text (IWT) troll memes has
recently become popular. Since the online community utilizes the refuge of
memes to express themselves, there is an abundance of data in the form of
memes. These memes have the potential to demean, harras, or bully targeted
individuals. Moreover, the targeted individual could fall prey to opinion
manipulation. To comprehend the use of memes in opinion manipulation, we define
three specific domains (product, political or others) which we classify into
troll or not-troll, with or without opinion manipulation. To enable this
analysis, we enhanced an existing dataset by annotating the data with our
defined classes, resulting in a dataset of 8,881 IWT or multimodal memes in the
English language (TrollsWithOpinion dataset). We perform baseline experiments
on the annotated dataset, and our result shows that existing state-of-the-art
techniques could only reach a weighted-average F1-score of 0.37. This shows the
need for a development of a specific technique to deal with multimodal troll
memes.
- Abstract(参考訳): 画像とテキスト(IWT)のトロールミームの分類に関する研究が最近盛んになっている。
オンラインコミュニティはミームの避難地を利用して自己表現しているため、ミームの形で大量のデータが存在する。
これらのミームは、デミア、ハラス、またはいじめ対象の個人を誘惑する可能性がある。
さらに、対象の個人は意見操作に苦しむ可能性がある。
意見操作におけるミームの使用を理解するために、我々は、意見操作の有無にかかわらず、トロルまたは非トロールに分類する3つの特定のドメイン(製品、政治、その他)を定義した。
この分析を可能にするために、定義したクラスにデータをアノテートすることで既存のデータセットを拡張し、その結果、英語の8,881のIWTまたはマルチモーダルミーム(TrollsWithOpinionデータセット)のデータセットを作成しました。
我々は,アノテーション付きデータセットでベースライン実験を行い,既存の最先端技術は平均0.37の重み付け値のf1-scoreにしか到達できないことを示した。
これはマルチモーダルトロルミームを扱うための特定のテクニックの開発の必要性を示している。
関連論文リスト
- What Makes a Meme a Meme? Identifying Memes for Memetics-Aware Dataset Creation [0.9217021281095907]
マルチモーダルインターネットミームは現在、オンライン談話におけるユビキタスなフィクスチャとなっている。
ミームはミームを模倣してシンボルに変換する過程である。
我々は,ミームと非ミームコンテンツとを識別するミーム識別プロトコルを開発した。
論文 参考訳(メタデータ) (2024-07-16T15:48:36Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - A Template Is All You Meme [83.05919383106715]
我々は,54,000枚以上の画像からなる www.knowyourme.com で発見されたミームと情報の知識ベースをリリースする。
我々は、ミームテンプレートが、以前のアプローチから欠落したコンテキストでモデルを注入するのに使えると仮定する。
論文 参考訳(メタデータ) (2023-11-11T19:38:14Z) - DisinfoMeme: A Multimodal Dataset for Detecting Meme Intentionally
Spreading Out Disinformation [72.18912216025029]
偽情報ミームの検出を支援するためにDisinfoMemeを提案する。
このデータセットには、COVID-19パンデミック、Black Lives Matter運動、ベジタリアン/ベジタリアンという3つのトピックをカバーするRedditのミームが含まれている。
論文 参考訳(メタデータ) (2022-05-25T09:54:59Z) - DISARM: Detecting the Victims Targeted by Harmful Memes [49.12165815990115]
DISARMは、有害なミームを検出するために名前付きエンティティ認識と個人識別を使用するフレームワークである。
DISARMは10の単一モーダル・マルチモーダルシステムより著しく優れていることを示す。
複数の強力なマルチモーダルライバルに対して、有害なターゲット識別の相対誤差率を最大9ポイントまで下げることができる。
論文 参考訳(メタデータ) (2022-05-11T19:14:26Z) - hate-alert@DravidianLangTech-ACL2022: Ensembling Multi-Modalities for
Tamil TrollMeme Classification [5.51252705016179]
ACL-2022における共有タスク"Troll Meme Classification in DravidianLangTech2022"に基づいて,タミルのトロールミームを検出するモデルについて検討した。
テキストベースモデル MURIL がノントロール・ミーム分類に優れているのに対して,画像ベースモデル VGG16 はトロル・ミーム分類に優れていた。
我々の核融合モデルは0.561の重み付き平均F1スコアを達成し、このタスクでは2位となった。
論文 参考訳(メタデータ) (2022-03-25T17:53:39Z) - Detecting Harmful Memes and Their Targets [27.25262711136056]
COVID-19に関連する3,544のミームを含む最初のベンチマークデータセットであるHarMemeを紹介します。
第1段階では、ミームを非常に有害、部分的に有害、または無害とラベル付けし、第2段階では、有害ミームが示す標的の種類をさらにアノテートした。
10の単一モーダルモデルとマルチモーダルモデルによる評価結果は、両方のタスクにマルチモーダル信号を使用することの重要性を強調している。
論文 参考訳(メタデータ) (2021-09-24T17:11:42Z) - MOMENTA: A Multimodal Framework for Detecting Harmful Memes and Their
Targets [28.877314859737197]
我々は,有害ミームの検出と,対象とする社会的実体の特定という,新たな2つの課題を解決しようとしている。
特に,有害ミームの検出と,対象とする社会的実体の特定という,新たな2つの課題の解決を目指す。
我々は,世界的および地域的視点を用いて有害ミームを検出する,新しいマルチモーダル(テキスト+画像)ディープニューラルモデルMOMENTAを提案する。
論文 参考訳(メタデータ) (2021-09-11T04:29:32Z) - Memes in the Wild: Assessing the Generalizability of the Hateful Memes
Challenge Dataset [47.65948529524281]
Pinterestからヘイトフルで非ヘイトフルなミームを収集して、Facebookデータセットで事前トレーニングされたモデルで、サンプル外のパフォーマンスを評価します。
1) キャプションをOCRで抽出しなければならない,2) ミームは従来のミームよりも多様であり, 会話のスクリーンショットやテキストをプレーンな背景に表示する,という2つの重要な側面がある。
論文 参考訳(メタデータ) (2021-07-09T09:04:05Z) - Trawling for Trolling: A Dataset [56.1778095945542]
攻撃的コンテンツのサブカテゴリとしてトロリングをモデル化するデータセットを提案する。
データセットには12,490のサンプルがあり、5つのクラスに分かれている。
論文 参考訳(メタデータ) (2020-08-02T17:23:55Z) - Semantic Search of Memes on Twitter [0.8701566919381222]
本稿では,画像を自動的にミームとして分類するいくつかの手法を提案し,比較する。
チリのTwitterユーザから収集した大量のミームを用いて,提案手法を実験的に評価した。
論文 参考訳(メタデータ) (2020-02-04T18:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。