論文の概要: NUAA-QMUL at SemEval-2020 Task 8: Utilizing BERT and DenseNet for
Internet Meme Emotion Analysis
- arxiv url: http://arxiv.org/abs/2011.02788v2
- Date: Mon, 9 Nov 2020 14:42:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 11:58:04.164706
- Title: NUAA-QMUL at SemEval-2020 Task 8: Utilizing BERT and DenseNet for
Internet Meme Emotion Analysis
- Title(参考訳): NUAA-QMUL at SemEval-2020 Task 8: using BERT and DenseNet for Internet Meme Emotion Analysis
- Authors: Xiaoyu Guo, Jing Ma, Arkaitz Zubiaga
- Abstract要約: 本システムは、感情によってインターネットのミームを分類するために、テキストや画像からマルチモーダルな埋め込みを学習する。
以上の結果から,画像分類モデルは,DenseNetがResNetより優れており,ミームの分類に役立つ可能性が示唆された。
- 参考スコア(独自算出の注目度): 18.86848589288164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes our contribution to SemEval 2020 Task 8: Memotion
Analysis. Our system learns multi-modal embeddings from text and images in
order to classify Internet memes by sentiment. Our model learns text embeddings
using BERT and extracts features from images with DenseNet, subsequently
combining both features through concatenation. We also compare our results with
those produced by DenseNet, ResNet, BERT, and BERT-ResNet. Our results show
that image classification models have the potential to help classifying memes,
with DenseNet outperforming ResNet. Adding text features is however not always
helpful for Memotion Analysis.
- Abstract(参考訳): 本稿では,SemEval 2020 Task 8: Memotion Analysisへの貢献について述べる。
本システムでは,テキストと画像からマルチモーダル埋め込みを学習し,インターネットミームを感情的に分類する。
我々のモデルはBERTを用いてテキスト埋め込みを学習し、DenseNetで画像から特徴を抽出し、結合によって両方の特徴を組み合わせる。
また、DenseNet、ResNet、BERT、BERT-ResNetによる結果と比較する。
DenseNetはResNetよりも優れており,画像分類モデルがミームの分類に役立つ可能性が示唆された。
しかし、テキスト機能の追加は、Memotion Analysisにとって必ずしも役に立たない。
関連論文リスト
- Learning Vision from Models Rivals Learning Vision from Data [54.43596959598465]
合成画像と合成キャプションのみから視覚表現を学習するための新しいアプローチであるSynCLRを紹介する。
LLMを用いて画像キャプションの大規模なデータセットを合成し,既製のテキスト・ツー・イメージモデルを用いて合成キャプションに対応する複数の画像を生成する。
比較学習によって合成画像の視覚的表現学習を行い、同じ字幕を共有するイメージを正のペアとして扱う。
論文 参考訳(メタデータ) (2023-12-28T18:59:55Z) - NYCU-TWO at Memotion 3: Good Foundation, Good Teacher, then you have
Good Meme Analysis [4.361904115604854]
本稿では,Memotion 3.0共有タスクに対する堅牢なソリューションを提案する。
このタスクの目的は、ミームによって表現される感情とそれに対応する強度を分類することである。
与えられたミームのマルチモーダル機能を理解することが、タスクの解決の鍵となるでしょう。
論文 参考訳(メタデータ) (2023-02-13T03:25:37Z) - MogaNet: Multi-order Gated Aggregation Network [64.16774341908365]
我々は,識別的視覚的表現学習のために,MogaNetと呼ばれる現代ConvNetの新たなファミリーを提案する。
MogaNetは概念的に単純だが効果的な畳み込みをカプセル化し、集約をコンパクトモジュールに集約する。
MogaNetは、ImageNetの最先端のViTやConvNetと比較して、優れたスケーラビリティ、パラメータの大幅な効率、競争性能を示している。
論文 参考訳(メタデータ) (2022-11-07T04:31:17Z) - Semantically Self-Aligned Network for Text-to-Image Part-aware Person
Re-identification [78.45528514468836]
ReID(Text-to-image person re-identification)は、テキスト記述を用いて興味のある人物を含む画像を検索することを目的としている。
上記の問題に対処するために,Semantically Self-Aligned Network (SSAN)を提案する。
ICFG-PEDESという新しいデータベースを構築。
論文 参考訳(メタデータ) (2021-07-27T08:26:47Z) - NetReAct: Interactive Learning for Network Summarization [60.18513812680714]
本論文では,テキストコーポラによる感覚生成のネットワーク可視化を支援する,新しいインタラクティブネットワーク要約アルゴリズムであるNetReActを提案する。
netreactが、他の非自明なベースラインよりも、隠れたパターンを明らかにする高品質な要約や視覚化の生成に成功していることを示す。
論文 参考訳(メタデータ) (2020-12-22T03:56:26Z) - gundapusunil at SemEval-2020 Task 8: Multimodal Memotion Analysis [7.538482310185133]
コンピュータビジョンと自然言語処理を組み合わせたディープニューラルネットワークを用いたマルチモーダル感情分析システムを提案する。
我々の目標は、テキストが肯定的あるいは否定的な感情を表現するかどうかを予測する通常の感情分析目標とは異なる。
CNN と LSTM を用いてシステムを構築し,ベースラインスコアを上回った。
論文 参考訳(メタデータ) (2020-10-09T09:53:14Z) - Pairwise Relation Learning for Semi-supervised Gland Segmentation [90.45303394358493]
病理組織像における腺分節に対するPRS2モデルを提案する。
このモデルはセグメンテーションネットワーク(S-Net)とペア関係ネットワーク(PR-Net)から構成される。
我々は,GlaSデータセットの最近の5つの手法とCRAGデータセットの最近の3つの手法を比較した。
論文 参考訳(メタデータ) (2020-08-06T15:02:38Z) - YNU-HPCC at SemEval-2020 Task 8: Using a Parallel-Channel Model for
Memotion Analysis [11.801902984731129]
本稿では,ミーム内のテキスト情報と視覚情報を処理する並列チャネルモデルを提案する。
ミームを識別・分類する共有タスクでは、ソーシャルメディア上での言語行動に応じてデータセットを前処理する。
次に、変換器からの双方向表現(BERT)を適応・微調整し、画像から特徴を抽出するために2種類の畳み込みニューラルネットワークモデル(CNN)を用いた。
論文 参考訳(メタデータ) (2020-07-28T03:20:31Z) - IITK at SemEval-2020 Task 8: Unimodal and Bimodal Sentiment Analysis of
Internet Memes [2.2385755093672044]
本稿では,SemEval-2020 Task 8における感情分析問題に対するアプローチを提案する。
このタスクの目的は、感情の内容と感情に基づいてミームを分類することである。
この結果から,Word2vecを入力として組み込んだ単純なフィードフォワードニューラルネットワーク(FFNN)は,他のすべてよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-21T14:06:26Z) - Semantic Segmentation With Multi Scale Spatial Attention For Self
Driving Cars [2.7317088388886384]
本稿では,様々なスケールのマルチスケール特徴融合を用いた新しいニューラルネットワークを提案し,その精度と効率的なセマンティックイメージセグメンテーションを提案する。
我々は、ResNetベースの特徴抽出器、ダウンサンプリング部における拡張畳み込み層、アップサンプリング部におけるアトラス畳み込み層を使用し、コンキャット操作を用いてそれらをマージした。
より文脈的な情報をエンコードし、ネットワークの受容領域を強化するため、新しいアテンションモジュールが提案されている。
論文 参考訳(メタデータ) (2020-06-30T20:19:09Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。