論文の概要: hate-alert@DravidianLangTech-ACL2022: Ensembling Multi-Modalities for
Tamil TrollMeme Classification
- arxiv url: http://arxiv.org/abs/2204.12587v1
- Date: Fri, 25 Mar 2022 17:53:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-01 09:24:02.623816
- Title: hate-alert@DravidianLangTech-ACL2022: Ensembling Multi-Modalities for
Tamil TrollMeme Classification
- Title(参考訳): hate-alert@dravidianlangtech-acl2022: タミル・トロルミー分類のマルチモーダル化
- Authors: Mithun Das and Somnath Banerjee and Animesh Mukherjee
- Abstract要約: ACL-2022における共有タスク"Troll Meme Classification in DravidianLangTech2022"に基づいて,タミルのトロールミームを検出するモデルについて検討した。
テキストベースモデル MURIL がノントロール・ミーム分類に優れているのに対して,画像ベースモデル VGG16 はトロル・ミーム分類に優れていた。
我々の核融合モデルは0.561の重み付き平均F1スコアを達成し、このタスクでは2位となった。
- 参考スコア(独自算出の注目度): 5.51252705016179
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social media platforms often act as breeding grounds for various forms of
trolling or malicious content targeting users or communities. One way of
trolling users is by creating memes, which in most cases unites an image with a
short piece of text embedded on top of it. The situation is more complex for
multilingual(e.g., Tamil) memes due to the lack of benchmark datasets and
models. We explore several models to detect Troll memes in Tamil based on the
shared task, "Troll Meme Classification in DravidianLangTech2022" at ACL-2022.
We observe while the text-based model MURIL performs better for Non-troll meme
classification, the image-based model VGG16 performs better for Troll-meme
classification. Further fusing these two modalities help us achieve stable
outcomes in both classes. Our fusion model achieved a 0.561 weighted average F1
score and ranked second in this task.
- Abstract(参考訳): ソーシャルメディアプラットフォームは、ユーザーやコミュニティをターゲットにした様々なタイプのトロールや悪意のあるコンテンツの繁殖地として機能することが多い。
ユーザーをトロルする一つの方法はミームを作ることで、ほとんどの場合、画像に短いテキストが埋め込まれた画像が一体化される。
ベンチマークデータセットやモデルがないため、多言語(例えばタミル)のミームでは状況は複雑である。
ACL-2022における共有タスク"Troll Meme Classification in DravidianLangTech2022"に基づいて,タミルのトロールミームを検出するモデルについて検討した。
テキストベースモデル MURIL がノントロール・ミーム分類に優れているのに対して,画像ベースモデル VGG16 はトロル・ミーム分類に優れていた。
これら2つのモダリティをさらに融合させることで、両方のクラスで安定した結果が得られる。
我々の核融合モデルは0.561の重み付き平均F1スコアを達成し、このタスクでは2位となった。
関連論文リスト
- XMeCap: Meme Caption Generation with Sub-Image Adaptability [53.2509590113364]
社会的な意味や文化的な詳細に深く根ざした噂は、機械にとってユニークな挑戦である。
我々は、教師付き微調整と強化学習を採用するtextscXMeCapフレームワークを紹介した。
textscXMeCapは、シングルイメージのミームの平均評価スコアが75.85で、マルチイメージのミームは66.32で、それぞれ3.71%と4.82%で最高のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-07-24T10:51:46Z) - Zero shot VLMs for hate meme detection: Are we there yet? [9.970031080934003]
本研究では,ヘイト・ミーム検出などの複雑なタスクに対する視覚言語モデルの有効性について検討した。
我々は、大きなVLMが未だにゼロショットのヘイトミーム検出に弱いことを観察する。
論文 参考訳(メタデータ) (2024-02-19T15:03:04Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - A Template Is All You Meme [83.05919383106715]
我々は,54,000枚以上の画像からなる www.knowyourme.com で発見されたミームと情報の知識ベースをリリースする。
我々は、ミームテンプレートが、以前のアプローチから欠落したコンテキストでモデルを注入するのに使えると仮定する。
論文 参考訳(メタデータ) (2023-11-11T19:38:14Z) - BanglaAbuseMeme: A Dataset for Bengali Abusive Meme Classification [11.04522597948877]
個人やコミュニティを悪用する単純で効果的な方法はミームを作ることである。
このような有害な要素は普及しており、オンラインの安全を脅かしている。
乱用ミームを検知・フラグする効率的なモデルを開発する必要がある。
論文 参考訳(メタデータ) (2023-10-18T07:10:47Z) - DisinfoMeme: A Multimodal Dataset for Detecting Meme Intentionally
Spreading Out Disinformation [72.18912216025029]
偽情報ミームの検出を支援するためにDisinfoMemeを提案する。
このデータセットには、COVID-19パンデミック、Black Lives Matter運動、ベジタリアン/ベジタリアンという3つのトピックをカバーするRedditのミームが含まれている。
論文 参考訳(メタデータ) (2022-05-25T09:54:59Z) - Feels Bad Man: Dissecting Automated Hateful Meme Detection Through the
Lens of Facebook's Challenge [10.775419935941008]
我々は,現在最先端のマルチモーダル機械学習モデルのヘイトフルミーム検出に対する有効性を評価する。
4chanの"Politically Incorrect"ボード(/pol/)とFacebookのHateful Memes Challengeデータセットの12,140と10,567の2つのベンチマークデータセットを使用します。
分類性能におけるマルチモーダリティの重要性,主流のソーシャルプラットフォーム上でのWebコミュニティの影響力,その逆の3つの実験を行った。
論文 参考訳(メタデータ) (2022-02-17T07:52:22Z) - Caption Enriched Samples for Improving Hateful Memes Detection [78.5136090997431]
憎しみのあるミームの挑戦は、ミームが憎悪であるか否かを決定するのが困難であることを示している。
ユニモーダル言語モデルとマルチモーダル視覚言語モデルの両方が人間のパフォーマンスレベルに到達できない。
論文 参考訳(メタデータ) (2021-09-22T10:57:51Z) - TrollsWithOpinion: A Dataset for Predicting Domain-specific Opinion
Manipulation in Troll Memes [4.513166202592557]
我々は英語で8,881 IWTまたはマルチモーダルミームを分類する(TrollsWith データセット)
これらのミームは、デミア、ハラス、またはいじめ対象の個人を誘惑する可能性がある。
我々は注釈付きデータセットのベースライン実験を行い、既存の最先端技術が平均0.37の重み付きF1スコアにしか達しないことを示した。
論文 参考訳(メタデータ) (2021-09-08T12:12:13Z) - Memes in the Wild: Assessing the Generalizability of the Hateful Memes
Challenge Dataset [47.65948529524281]
Pinterestからヘイトフルで非ヘイトフルなミームを収集して、Facebookデータセットで事前トレーニングされたモデルで、サンプル外のパフォーマンスを評価します。
1) キャプションをOCRで抽出しなければならない,2) ミームは従来のミームよりも多様であり, 会話のスクリーンショットやテキストをプレーンな背景に表示する,という2つの重要な側面がある。
論文 参考訳(メタデータ) (2021-07-09T09:04:05Z) - UVCE-IIITT@DravidianLangTech-EACL2021: Tamil Troll Meme Classification:
You need to Pay more Attention [0.19573380763700712]
我々は,タミルミームの真の意味をトロールとノントロールに分類することで分析しようとする。
データセットは、キャプションをテキストとしてトロールおよび非トロール画像で構成されています。
モデルの目的は抽出した特徴により多くの注意を払って、画像とテキストの両方のノイズを無視することである。
論文 参考訳(メタデータ) (2021-04-19T06:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。