論文の概要: Hate Me Not: Detecting Hate Inducing Memes in Code Switched Languages
- arxiv url: http://arxiv.org/abs/2204.11356v1
- Date: Sun, 24 Apr 2022 21:03:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 23:33:23.389691
- Title: Hate Me Not: Detecting Hate Inducing Memes in Code Switched Languages
- Title(参考訳): Hate Me Not: コードスイッチド言語におけるHate Inducing Memesの検出
- Authors: Kshitij Rajput, Raghav Kapoor, Kaushal Rai, Preeti Kaur
- Abstract要約: 複数の言語が話されているインドのような国では、こうしたアホレントな投稿は、コードに切り替えられた言語が異例に混ざり合っている。
この憎しみの言葉はイメージの助けを借りて表現され、「ミーム」を形成し、人間の心に長期間の影響を及ぼす。
我々は、マルチモーダルデータ、すなわちコードスイッチト言語でテキストを含む画像(ミーム)から憎悪と悪を検知するタスクを取り上げている。
- 参考スコア(独自算出の注目度): 1.376408511310322
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rise in the number of social media users has led to an increase in the
hateful content posted online. In countries like India, where multiple
languages are spoken, these abhorrent posts are from an unusual blend of
code-switched languages. This hate speech is depicted with the help of images
to form "Memes" which create a long-lasting impact on the human mind. In this
paper, we take up the task of hate and offense detection from multimodal data,
i.e. images (Memes) that contain text in code-switched languages. We firstly
present a novel triply annotated Indian political Memes (IPM) dataset, which
comprises memes from various Indian political events that have taken place
post-independence and are classified into three distinct categories. We also
propose a binary-channelled CNN cum LSTM based model to process the images
using the CNN model and text using the LSTM model to get state-of-the-art
results for this task.
- Abstract(参考訳): ソーシャルメディア利用者の増加は、オンラインで投稿された憎しみのあるコンテンツの増加につながっている。
複数の言語が話されているインドのような国では、こうしたアホレントポストは、コードに切り替えられた言語が異例に混在している。
この憎しみの言葉は、イメージの助けを借りて「ミーム」を形成し、人間の心に長期間の影響を及ぼす。
本稿では,コード切り換え言語にテキストを含む画像(ミーム)など,マルチモーダルなデータから嫌悪検出のタスクを取り上げる。
まず,インド独立後に発生した様々な政治イベントのミームを含む,三重注釈付きインド政治ミーム(IPM)データセットを3つのカテゴリに分類した。
また、CNNモデルとLSTMモデルを用いたテキストを用いて画像を処理し、そのタスクの最先端結果を得るためのバイナリチャネル化されたCNN cum LSTMモデルを提案する。
関連論文リスト
- An image speaks a thousand words, but can everyone listen? On image transcreation for cultural relevance [53.974497865647336]
われわれは、画像の翻訳を文化的に意味のあるものにするための第一歩を踏み出した。
タスクを行うために、最先端の生成モデルからなる3つのパイプラインを構築します。
我々は,翻訳画像の人間による評価を行い,文化的意義と保存の意味を評価する。
論文 参考訳(メタデータ) (2024-04-01T17:08:50Z) - Deciphering Hate: Identifying Hateful Memes and Their Targets [4.574830585715128]
BHMにおけるヘイトフルミーム検出のための新しいデータセットについて紹介する。
データセットは、7,148のミームとコードミキシングされたキャプションで構成され、(i)憎しみのあるミームを検知し、(ii)ターゲットとする社会的実体を検知する。
これらの課題を解決するために,メメから重要なモダリティ特徴を体系的に抽出するマルチモーダルディープニューラルネットワークDORAを提案する。
論文 参考訳(メタデータ) (2024-03-16T06:39:41Z) - Mapping Memes to Words for Multimodal Hateful Meme Classification [26.101116761577796]
一部のミームは悪意があり、ヘイトフルなコンテンツを宣伝し、差別を永続させる。
マルチモーダルヘイトフルミーム分類のためのISSUESという新しい手法を提案する。
提案手法は,Hateful Memes Challenge と HarMeme データセットの最先端化を実現する。
論文 参考訳(メタデータ) (2023-10-12T14:38:52Z) - DisinfoMeme: A Multimodal Dataset for Detecting Meme Intentionally
Spreading Out Disinformation [72.18912216025029]
偽情報ミームの検出を支援するためにDisinfoMemeを提案する。
このデータセットには、COVID-19パンデミック、Black Lives Matter運動、ベジタリアン/ベジタリアンという3つのトピックをカバーするRedditのミームが含まれている。
論文 参考訳(メタデータ) (2022-05-25T09:54:59Z) - Detecting and Understanding Harmful Memes: A Survey [48.135415967633676]
我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
論文 参考訳(メタデータ) (2022-05-09T13:43:27Z) - MOMENTA: A Multimodal Framework for Detecting Harmful Memes and Their
Targets [28.877314859737197]
我々は,有害ミームの検出と,対象とする社会的実体の特定という,新たな2つの課題を解決しようとしている。
特に,有害ミームの検出と,対象とする社会的実体の特定という,新たな2つの課題の解決を目指す。
我々は,世界的および地域的視点を用いて有害ミームを検出する,新しいマルチモーダル(テキスト+画像)ディープニューラルモデルMOMENTAを提案する。
論文 参考訳(メタデータ) (2021-09-11T04:29:32Z) - Exploiting BERT For Multimodal Target SentimentClassification Through
Input Space Translation [75.82110684355979]
オブジェクト認識変換器を用いて入力空間内の画像を変換する2ストリームモデルを提案する。
次に、翻訳を利用して、言語モデルに多モーダル情報を提供する補助文を構築する。
2つのマルチモーダルTwitterデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-08-03T18:02:38Z) - Memes in the Wild: Assessing the Generalizability of the Hateful Memes
Challenge Dataset [47.65948529524281]
Pinterestからヘイトフルで非ヘイトフルなミームを収集して、Facebookデータセットで事前トレーニングされたモデルで、サンプル外のパフォーマンスを評価します。
1) キャプションをOCRで抽出しなければならない,2) ミームは従来のミームよりも多様であり, 会話のスクリーンショットやテキストをプレーンな背景に表示する,という2つの重要な側面がある。
論文 参考訳(メタデータ) (2021-07-09T09:04:05Z) - NLP-CUET@DravidianLangTech-EACL2021: Investigating Visual and Textual
Features to Identify Trolls from Multimodal Social Media Memes [0.0]
共有タスクは、マルチモーダルソーシャルメディアミームからトロールを識別することができるモデルを開発するために組織されます。
この研究は、私たちがタスクへの参加の一部として開発した計算モデルを提示します。
CNN, VGG16, Inception, Multilingual-BERT, XLM-Roberta, XLNetモデルを用いて視覚的およびテキスト的特徴を検討した。
論文 参考訳(メタデータ) (2021-02-28T11:36:50Z) - Multimodal Learning for Hateful Memes Detection [6.6881085567421605]
本稿では,画像キャプション処理をミーム検出プロセスに組み込む新しい手法を提案する。
本モデルは,Hateful Memes Detection Challengeにおける有望な結果を得る。
論文 参考訳(メタデータ) (2020-11-25T16:49:15Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。