論文の概要: UVCE-IIITT@DravidianLangTech-EACL2021: Tamil Troll Meme Classification:
You need to Pay more Attention
- arxiv url: http://arxiv.org/abs/2104.09081v1
- Date: Mon, 19 Apr 2021 06:57:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-21 01:39:51.033898
- Title: UVCE-IIITT@DravidianLangTech-EACL2021: Tamil Troll Meme Classification:
You need to Pay more Attention
- Title(参考訳): UVCE-IIITT@DravidianLangTech-EACL2021: Tamil Troll Memeの分類
- Authors: Siddhanth U Hegde, Adeep Hande, Ruba Priyadharshini, Sajeetha
Thavareesan, Bharathi Raja Chakravarthi
- Abstract要約: 我々は,タミルミームの真の意味をトロールとノントロールに分類することで分析しようとする。
データセットは、キャプションをテキストとしてトロールおよび非トロール画像で構成されています。
モデルの目的は抽出した特徴により多くの注意を払って、画像とテキストの両方のノイズを無視することである。
- 参考スコア(独自算出の注目度): 0.19573380763700712
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tamil is a Dravidian language that is commonly used and spoken in the
southern part of Asia. In the era of social media, memes have been a fun moment
in the day-to-day life of people. Here, we try to analyze the true meaning of
Tamil memes by categorizing them as troll and non-troll. We propose an
ingenious model comprising of a transformer-transformer architecture that tries
to attain state-of-the-art by using attention as its main component. The
dataset consists of troll and non-troll images with their captions as text. The
task is a binary classification task. The objective of the model is to pay more
attention to the extracted features and to ignore the noise in both images and
text.
- Abstract(参考訳): タミル語はドラヴィダ語であり、アジア南部で一般的に使われ、話されている。
ソーシャルメディアの時代、ミームは人々の日々の生活において楽しい瞬間だった。
ここでは,タミルミームの真の意味をトロルと非トロールに分類して分析する。
本稿では,注意を主成分として,最先端を実現するトランスフォーマアーキテクチャからなる巧妙なモデルを提案する。
データセットはtroll画像とnon-troll画像で構成され、キャプションはテキストとして表示される。
タスクはバイナリ分類タスクです。
モデルの目的は抽出した特徴により多くの注意を払って、画像とテキストのノイズを無視することである。
関連論文リスト
- XMeCap: Meme Caption Generation with Sub-Image Adaptability [53.2509590113364]
社会的な意味や文化的な詳細に深く根ざした噂は、機械にとってユニークな挑戦である。
我々は、教師付き微調整と強化学習を採用するtextscXMeCapフレームワークを紹介した。
textscXMeCapは、シングルイメージのミームの平均評価スコアが75.85で、マルチイメージのミームは66.32で、それぞれ3.71%と4.82%で最高のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-07-24T10:51:46Z) - See It from My Perspective: Diagnosing the Western Cultural Bias of Large Vision-Language Models in Image Understanding [78.88461026069862]
視覚言語モデル(VLM)は、多くの言語における画像に関するクエリに応答することができる。
我々は、画像理解における西洋の偏見を実証し、局所化する新しい研究を提案する。
論文 参考訳(メタデータ) (2024-06-17T15:49:51Z) - An image speaks a thousand words, but can everyone listen? On image transcreation for cultural relevance [53.974497865647336]
われわれは、画像の翻訳を文化的に意味のあるものにするための第一歩を踏み出した。
タスクを行うために、最先端の生成モデルからなる3つのパイプラインを構築します。
我々は,翻訳画像の人間による評価を行い,文化的意義と保存の意味を評価する。
論文 参考訳(メタデータ) (2024-04-01T17:08:50Z) - Deciphering Hate: Identifying Hateful Memes and Their Targets [4.574830585715128]
BHMにおけるヘイトフルミーム検出のための新しいデータセットについて紹介する。
データセットは、7,148のミームとコードミキシングされたキャプションで構成され、(i)憎しみのあるミームを検知し、(ii)ターゲットとする社会的実体を検知する。
これらの課題を解決するために,メメから重要なモダリティ特徴を体系的に抽出するマルチモーダルディープニューラルネットワークDORAを提案する。
論文 参考訳(メタデータ) (2024-03-16T06:39:41Z) - Do Androids Laugh at Electric Sheep? Humor "Understanding" Benchmarks
from The New Yorker Caption Contest [70.40189243067857]
大きめのニューラルネットワークがジョークを生成できるようになったが、本当にユーモアを「理解」しているのだろうか?
私たちは、New Yorker Cartoon Caption Contestから派生した3つのタスクでAIモデルに挑戦します。
どちらのモデルも3つのタスクすべてで苦労しています。
論文 参考訳(メタデータ) (2022-09-13T20:54:00Z) - Hate Me Not: Detecting Hate Inducing Memes in Code Switched Languages [1.376408511310322]
複数の言語が話されているインドのような国では、こうしたアホレントな投稿は、コードに切り替えられた言語が異例に混ざり合っている。
この憎しみの言葉はイメージの助けを借りて表現され、「ミーム」を形成し、人間の心に長期間の影響を及ぼす。
我々は、マルチモーダルデータ、すなわちコードスイッチト言語でテキストを含む画像(ミーム)から憎悪と悪を検知するタスクを取り上げている。
論文 参考訳(メタデータ) (2022-04-24T21:03:57Z) - hate-alert@DravidianLangTech-ACL2022: Ensembling Multi-Modalities for
Tamil TrollMeme Classification [5.51252705016179]
ACL-2022における共有タスク"Troll Meme Classification in DravidianLangTech2022"に基づいて,タミルのトロールミームを検出するモデルについて検討した。
テキストベースモデル MURIL がノントロール・ミーム分類に優れているのに対して,画像ベースモデル VGG16 はトロル・ミーム分類に優れていた。
我々の核融合モデルは0.561の重み付き平均F1スコアを達成し、このタスクでは2位となった。
論文 参考訳(メタデータ) (2022-03-25T17:53:39Z) - Do Images really do the Talking? Analysing the significance of Images in
Tamil Troll meme classification [0.16863755729554888]
我々は,ミームの分類における画像の視覚的特徴の重要性を探究する。
画像とテキストに基づいて,ミームをトロール・ノントロールのミームとして組み込もうとする。
論文 参考訳(メタデータ) (2021-08-09T09:04:42Z) - Exploiting BERT For Multimodal Target SentimentClassification Through
Input Space Translation [75.82110684355979]
オブジェクト認識変換器を用いて入力空間内の画像を変換する2ストリームモデルを提案する。
次に、翻訳を利用して、言語モデルに多モーダル情報を提供する補助文を構築する。
2つのマルチモーダルTwitterデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-08-03T18:02:38Z) - Memes in the Wild: Assessing the Generalizability of the Hateful Memes
Challenge Dataset [47.65948529524281]
Pinterestからヘイトフルで非ヘイトフルなミームを収集して、Facebookデータセットで事前トレーニングされたモデルで、サンプル外のパフォーマンスを評価します。
1) キャプションをOCRで抽出しなければならない,2) ミームは従来のミームよりも多様であり, 会話のスクリーンショットやテキストをプレーンな背景に表示する,という2つの重要な側面がある。
論文 参考訳(メタデータ) (2021-07-09T09:04:05Z) - NLP-CUET@DravidianLangTech-EACL2021: Investigating Visual and Textual
Features to Identify Trolls from Multimodal Social Media Memes [0.0]
共有タスクは、マルチモーダルソーシャルメディアミームからトロールを識別することができるモデルを開発するために組織されます。
この研究は、私たちがタスクへの参加の一部として開発した計算モデルを提示します。
CNN, VGG16, Inception, Multilingual-BERT, XLM-Roberta, XLNetモデルを用いて視覚的およびテキスト的特徴を検討した。
論文 参考訳(メタデータ) (2021-02-28T11:36:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。