論文の概要: IITK at SemEval-2020 Task 8: Unimodal and Bimodal Sentiment Analysis of
Internet Memes
- arxiv url: http://arxiv.org/abs/2007.10822v1
- Date: Tue, 21 Jul 2020 14:06:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 03:54:10.384413
- Title: IITK at SemEval-2020 Task 8: Unimodal and Bimodal Sentiment Analysis of
Internet Memes
- Title(参考訳): IITK at SemEval-2020 Task 8: Unimodal and Bimodal Sentiment Analysis of Internet Memes
- Authors: Vishal Keswani, Sakshi Singh, Suryansh Agarwal, Ashutosh Modi
- Abstract要約: 本稿では,SemEval-2020 Task 8における感情分析問題に対するアプローチを提案する。
このタスクの目的は、感情の内容と感情に基づいてミームを分類することである。
この結果から,Word2vecを入力として組み込んだ単純なフィードフォワードニューラルネットワーク(FFNN)は,他のすべてよりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 2.2385755093672044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social media is abundant in visual and textual information presented together
or in isolation. Memes are the most popular form, belonging to the former
class. In this paper, we present our approaches for the Memotion Analysis
problem as posed in SemEval-2020 Task 8. The goal of this task is to classify
memes based on their emotional content and sentiment. We leverage techniques
from Natural Language Processing (NLP) and Computer Vision (CV) towards the
sentiment classification of internet memes (Subtask A). We consider Bimodal
(text and image) as well as Unimodal (text-only) techniques in our study
ranging from the Na\"ive Bayes classifier to Transformer-based approaches. Our
results show that a text-only approach, a simple Feed Forward Neural Network
(FFNN) with Word2vec embeddings as input, performs superior to all the others.
We stand first in the Sentiment analysis task with a relative improvement of
63% over the baseline macro-F1 score. Our work is relevant to any task
concerned with the combination of different modalities.
- Abstract(参考訳): ソーシャルメディアは視覚情報やテキスト情報に豊富に存在する。
ミームは、かつてのクラスに属する最も人気のある形式である。
本稿では,meval-2020タスク8におけるmemotion analysis問題に対する提案手法を提案する。
このタスクの目的は、感情の内容と感情に基づいてミームを分類することである。
自然言語処理(NLP)とコンピュータビジョン(CV)の技術をインターネットミーム(Subtask A)の感情分類に活用する。
バイモーダル(テキストと画像)とユニモーダル(テキストのみ)技術は,Na\\"ive Bayes分類器からTransformerベースのアプローチまで幅広い。
その結果,word2vecを入力として組み込む単純なフィードフォワードニューラルネットワーク (ffnn) が,他のすべての手法よりも優れていることがわかった。
ベースラインマクロF1スコアよりも相対的に63%向上した感性分析タスクでは,まず第1に立つ。
私たちの仕事は、異なるモダリティの組み合わせに関するあらゆるタスクに関係しています。
関連論文リスト
- VLLMs Provide Better Context for Emotion Understanding Through Common Sense Reasoning [66.23296689828152]
我々は、視覚・言語モデルの機能を活用し、文脈内感情分類を強化する。
第1段階では、VLLMが対象者の明らかな感情の自然言語で記述を生成できるように促すことを提案する。
第2段階では、記述を文脈情報として使用し、画像入力とともに、トランスフォーマーベースのアーキテクチャのトレーニングに使用する。
論文 参考訳(メタデータ) (2024-04-10T15:09:15Z) - Towards Unifying Medical Vision-and-Language Pre-training via Soft
Prompts [63.84720380390935]
textiti. には、重い融合モジュールを使用するかどうかに応じて、融合エンコーダタイプと二重エンコーダタイプという2つの典型的なタイプがある。
PTUnifier という2つのタイプを統一する手法を提案する。
まず、最も代表的な画像/テキストを格納する機能バンクとして機能する視覚的およびテキスト的プロンプトを導入することで、入力形式を統一する。
論文 参考訳(メタデータ) (2023-02-17T15:43:42Z) - Universal Multimodal Representation for Language Understanding [110.98786673598015]
本研究は,一般的なNLPタスクの補助信号として視覚情報を利用する新しい手法を提案する。
各文に対して、まず、既存の文-画像ペア上で抽出された軽トピック-画像検索テーブルから、フレキシブルな画像を検索する。
そして、テキストと画像はそれぞれトランスフォーマーエンコーダと畳み込みニューラルネットワークによって符号化される。
論文 参考訳(メタデータ) (2023-01-09T13:54:11Z) - UniTE: Unified Translation Evaluation [63.58868113074476]
UniTEは3つの評価タスクをすべて処理する能力に携わる最初の統合フレームワークである。
We testify our framework on WMT 2019 Metrics and WMT 2020 Quality Estimation benchmarks。
論文 参考訳(メタデータ) (2022-04-28T08:35:26Z) - Probing Inter-modality: Visual Parsing with Self-Attention for
Vision-Language Pre-training [139.4566371416662]
Vision-Language Pre-Trainingは、画像とテキストのペアからマルチモーダル表現を学ぶことを目的としている。
CNNは、長距離依存をモデル化する際の局所受容野の弱点により、視覚的関係学習に制限がある。
論文 参考訳(メタデータ) (2021-06-25T08:04:25Z) - Exercise? I thought you said 'Extra Fries': Leveraging Sentence
Demarcations and Multi-hop Attention for Meme Affect Analysis [18.23523076710257]
MHA-MEMEと呼ばれるマルチホップアテンションベースのディープニューラルネットワークフレームワークを提案する。
その主な目的は、視覚モダリティ(画像)と様々なテキストセグメント間の空間領域対応を利用して、分類のためのきめ細かい特徴表現を抽出することである。
MHA-MEMEを3つのサブタスク(感情分類、影響分類、クラス定量化)すべてに対して'Memotion Analysis'データセット上で評価する。
論文 参考訳(メタデータ) (2021-03-23T08:21:37Z) - gundapusunil at SemEval-2020 Task 8: Multimodal Memotion Analysis [7.538482310185133]
コンピュータビジョンと自然言語処理を組み合わせたディープニューラルネットワークを用いたマルチモーダル感情分析システムを提案する。
我々の目標は、テキストが肯定的あるいは否定的な感情を表現するかどうかを予測する通常の感情分析目標とは異なる。
CNN と LSTM を用いてシステムを構築し,ベースラインスコアを上回った。
論文 参考訳(メタデータ) (2020-10-09T09:53:14Z) - SemEval-2020 Task 8: Memotion Analysis -- The Visuo-Lingual Metaphor! [20.55903557920223]
本提案の目的は,インターネットミームの自動処理に研究コミュニティの注意を向けることである。
タスクMemotion分析は、10Kのアノテートミームをリリースし、人間のアノテートラベルは感情(肯定的、否定的、中立的)、感情のタイプ(皮肉的、面白い、攻撃的、動機的、動機的)とそれに対応する強さである。
課題は、ミームの感情(肯定的、否定的、中立的)分析、全体的な感情(感情、皮肉、攻撃的、動機的)分類、ミームの強さの分類である。
論文 参考訳(メタデータ) (2020-08-09T18:17:33Z) - DSC IIT-ISM at SemEval-2020 Task 8: Bi-Fusion Techniques for Deep Meme
Emotion Analysis [5.259920715958942]
本稿では,SemEval 2020における感情分析共有タスクについて述べる。
本稿では,感情とユーモアの分類タスクに対するモーダル間の依存性を平均化するバイモーダル融合技術を用いたシステムを提案する。
論文 参考訳(メタデータ) (2020-07-28T17:23:35Z) - YNU-HPCC at SemEval-2020 Task 8: Using a Parallel-Channel Model for
Memotion Analysis [11.801902984731129]
本稿では,ミーム内のテキスト情報と視覚情報を処理する並列チャネルモデルを提案する。
ミームを識別・分類する共有タスクでは、ソーシャルメディア上での言語行動に応じてデータセットを前処理する。
次に、変換器からの双方向表現(BERT)を適応・微調整し、画像から特徴を抽出するために2種類の畳み込みニューラルネットワークモデル(CNN)を用いた。
論文 参考訳(メタデータ) (2020-07-28T03:20:31Z) - EmotiCon: Context-Aware Multimodal Emotion Recognition using Frege's
Principle [71.47160118286226]
EmotiConは、ビデオや画像から知覚された人間の感情認識をコンテキスト認識する学習アルゴリズムである。
心理学からフレーゲの文脈原理に動機づけられた我々のアプローチは、感情認識のための文脈の3つの解釈を組み合わせたものである。
平均精度 (AP) スコアは26クラスで35.48であり, 従来の手法よりも7-8の改善が見られた。
論文 参考訳(メタデータ) (2020-03-14T19:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。