論文の概要: YNU-HPCC at SemEval-2020 Task 8: Using a Parallel-Channel Model for
Memotion Analysis
- arxiv url: http://arxiv.org/abs/2007.13968v1
- Date: Tue, 28 Jul 2020 03:20:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 02:10:18.661827
- Title: YNU-HPCC at SemEval-2020 Task 8: Using a Parallel-Channel Model for
Memotion Analysis
- Title(参考訳): SemEval-2020 Task 8におけるYNU-HPCC: 並列チャネルモデルによる感情分析
- Authors: Li Yuan, Jin Wang and Xuejie Zhang
- Abstract要約: 本稿では,ミーム内のテキスト情報と視覚情報を処理する並列チャネルモデルを提案する。
ミームを識別・分類する共有タスクでは、ソーシャルメディア上での言語行動に応じてデータセットを前処理する。
次に、変換器からの双方向表現(BERT)を適応・微調整し、画像から特徴を抽出するために2種類の畳み込みニューラルネットワークモデル(CNN)を用いた。
- 参考スコア(独自算出の注目度): 11.801902984731129
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, the growing ubiquity of Internet memes on social media
platforms, such as Facebook, Instagram, and Twitter, has become a topic of
immense interest. However, the classification and recognition of memes is much
more complicated than that of social text since it involves visual cues and
language understanding. To address this issue, this paper proposed a
parallel-channel model to process the textual and visual information in memes
and then analyze the sentiment polarity of memes. In the shared task of
identifying and categorizing memes, we preprocess the dataset according to the
language behaviors on social media. Then, we adapt and fine-tune the
Bidirectional Encoder Representations from Transformers (BERT), and two types
of convolutional neural network models (CNNs) were used to extract the features
from the pictures. We applied an ensemble model that combined the BiLSTM,
BIGRU, and Attention models to perform cross domain suggestion mining. The
officially released results show that our system performs better than the
baseline algorithm. Our team won nineteenth place in subtask A (Sentiment
Classification). The code of this paper is availabled at :
https://github.com/YuanLi95/Semveal2020-Task8-emotion-analysis.
- Abstract(参考訳): 近年、Facebook、Instagram、Twitterなどのソーシャルメディアプラットフォームにおけるインターネットミームの普及は、大きな関心を集めている。
しかしながら、ミームの分類と認識は、視覚的手がかりと言語理解を含むため、社会的テキストよりもはるかに複雑である。
この問題に対処するため,本稿では,ミーム中のテキスト情報と視覚情報を処理し,ミームの感情極性を分析する並列チャネルモデルを提案する。
ミームを識別し分類する共有タスクでは、ソーシャルメディア上の言語行動に応じてデータセットを前処理する。
次に、変換器(BERT)からの双方向エンコーダ表現を適応・微調整し、2種類の畳み込みニューラルネットワークモデル(CNN)を用いて画像の特徴を抽出した。
クロスドメイン提案マイニングを行うために,BiLSTM,BIGRU,および注意モデルを組み合わせたアンサンブルモデルを適用した。
その結果,本システムはベースラインアルゴリズムよりも性能がよいことがわかった。
私たちのチームは,サブタスクAで19位を獲得しました。
この論文のコードは、https://github.com/yuanli95/semveal2020-task8-emotion- analysisで利用可能である。
関連論文リスト
- Socratic Models: Composing Zero-Shot Multimodal Reasoning with Language [49.82293730925404]
大規模な基盤モデルは、トレーニングされたデータのドメインによって、ユニークな機能を示すことができます。
このモデルの多様性は共生的であり,構造化ソクラテス対話を用いたAIシステム構築に活用可能であることを示す。
論文 参考訳(メタデータ) (2022-04-01T17:43:13Z) - A Shared Representation for Photorealistic Driving Simulators [83.5985178314263]
本稿では、識別器アーキテクチャを再考することにより、生成画像の品質を向上させることを提案する。
シーンセグメンテーションマップや人体ポーズといったセマンティックインプットによって画像が生成されるという問題に焦点が当てられている。
我々は,意味的セグメンテーション,コンテンツ再構成,および粗い粒度の逆解析を行うのに十分な情報をエンコードする,共有潜在表現を学習することを目指している。
論文 参考訳(メタデータ) (2021-12-09T18:59:21Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - NLP-CUET@DravidianLangTech-EACL2021: Investigating Visual and Textual
Features to Identify Trolls from Multimodal Social Media Memes [0.0]
共有タスクは、マルチモーダルソーシャルメディアミームからトロールを識別することができるモデルを開発するために組織されます。
この研究は、私たちがタスクへの参加の一部として開発した計算モデルを提示します。
CNN, VGG16, Inception, Multilingual-BERT, XLM-Roberta, XLNetモデルを用いて視覚的およびテキスト的特徴を検討した。
論文 参考訳(メタデータ) (2021-02-28T11:36:50Z) - NUAA-QMUL at SemEval-2020 Task 8: Utilizing BERT and DenseNet for
Internet Meme Emotion Analysis [18.86848589288164]
本システムは、感情によってインターネットのミームを分類するために、テキストや画像からマルチモーダルな埋め込みを学習する。
以上の結果から,画像分類モデルは,DenseNetがResNetより優れており,ミームの分類に役立つ可能性が示唆された。
論文 参考訳(メタデータ) (2020-11-05T12:39:30Z) - gundapusunil at SemEval-2020 Task 8: Multimodal Memotion Analysis [7.538482310185133]
コンピュータビジョンと自然言語処理を組み合わせたディープニューラルネットワークを用いたマルチモーダル感情分析システムを提案する。
我々の目標は、テキストが肯定的あるいは否定的な感情を表現するかどうかを予測する通常の感情分析目標とは異なる。
CNN と LSTM を用いてシステムを構築し,ベースラインスコアを上回った。
論文 参考訳(メタデータ) (2020-10-09T09:53:14Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z) - UPB at SemEval-2020 Task 8: Joint Textual and Visual Modeling in a
Multi-Task Learning Architecture for Memotion Analysis [1.2233362977312945]
本稿では,SemEval-2020 Task 8: Memotion Analysisのためのシステムについて述べる。
テキストエンコーディングのためのALBERTと画像表現のためのVGG-16を組み合わせたマルチモーダルマルチタスク学習アーキテクチャである。
提案手法は,第11位がSubtask A(0.3453マクロF1スコア),第1位がSubtask B(0.5183マクロF1スコア),第3位がSubtask C(0.3171マクロF1スコア)である。
論文 参考訳(メタデータ) (2020-09-06T17:17:41Z) - LTIatCMU at SemEval-2020 Task 11: Incorporating Multi-Level Features for
Multi-Granular Propaganda Span Identification [70.1903083747775]
本稿では,新聞記事におけるプロパガンダ・スパン識別の課題について述べる。
本稿では,BERT-BiLSTMに基づくプロパガンダ分類モデルを提案する。
論文 参考訳(メタデータ) (2020-08-11T16:14:47Z) - IITK at SemEval-2020 Task 8: Unimodal and Bimodal Sentiment Analysis of
Internet Memes [2.2385755093672044]
本稿では,SemEval-2020 Task 8における感情分析問題に対するアプローチを提案する。
このタスクの目的は、感情の内容と感情に基づいてミームを分類することである。
この結果から,Word2vecを入力として組み込んだ単純なフィードフォワードニューラルネットワーク(FFNN)は,他のすべてよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-21T14:06:26Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。