論文の概要: gundapusunil at SemEval-2020 Task 8: Multimodal Memotion Analysis
- arxiv url: http://arxiv.org/abs/2010.04470v1
- Date: Fri, 9 Oct 2020 09:53:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 05:49:56.051275
- Title: gundapusunil at SemEval-2020 Task 8: Multimodal Memotion Analysis
- Title(参考訳): gundapusunil at semeval-2020 task 8: multimodal memotion analysis
- Authors: Sunil Gundapu, Radhika Mamidi
- Abstract要約: コンピュータビジョンと自然言語処理を組み合わせたディープニューラルネットワークを用いたマルチモーダル感情分析システムを提案する。
我々の目標は、テキストが肯定的あるいは否定的な感情を表現するかどうかを予測する通常の感情分析目標とは異なる。
CNN と LSTM を用いてシステムを構築し,ベースラインスコアを上回った。
- 参考スコア(独自算出の注目度): 7.538482310185133
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent technological advancements in the Internet and Social media usage have
resulted in the evolution of faster and efficient platforms of communication.
These platforms include visual, textual and speech mediums and have brought a
unique social phenomenon called Internet memes. Internet memes are in the form
of images with witty, catchy, or sarcastic text descriptions. In this paper, we
present a multi-modal sentiment analysis system using deep neural networks
combining Computer Vision and Natural Language Processing. Our aim is different
than the normal sentiment analysis goal of predicting whether a text expresses
positive or negative sentiment; instead, we aim to classify the Internet meme
as a positive, negative, or neutral, identify the type of humor expressed and
quantify the extent to which a particular effect is being expressed. Our system
has been developed using CNN and LSTM and outperformed the baseline score.
- Abstract(参考訳): インターネットやソーシャルメディアにおける最近の技術進歩は、より高速で効率的なコミュニケーションプラットフォームの進化をもたらした。
これらのプラットフォームには、視覚、テキスト、音声メディアが含まれており、インターネットミームと呼ばれるユニークな社会現象をもたらした。
インターネットミームは、ウィッティ、キャッチー、または皮肉なテキスト記述を持つ画像の形式である。
本稿では,コンピュータビジョンと自然言語処理を組み合わせた深層ニューラルネットワークを用いたマルチモーダル感情分析システムを提案する。
我々の目標は、テキストが肯定的あるいは否定的な感情を表現するかどうかを予測する通常の感情分析目標とは異なる。代わりに、インターネットミームを肯定的、否定的、中立的なものに分類し、表現されるユーモアの種類を特定し、特定の効果が表現されている範囲を定量化する。
CNN と LSTM を用いてシステムを構築し,ベースラインスコアを上回った。
関連論文リスト
- XMeCap: Meme Caption Generation with Sub-Image Adaptability [53.2509590113364]
社会的な意味や文化的な詳細に深く根ざした噂は、機械にとってユニークな挑戦である。
我々は、教師付き微調整と強化学習を採用するtextscXMeCapフレームワークを紹介した。
textscXMeCapは、シングルイメージのミームの平均評価スコアが75.85で、マルチイメージのミームは66.32で、それぞれ3.71%と4.82%で最高のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-07-24T10:51:46Z) - SoMeLVLM: A Large Vision Language Model for Social Media Processing [78.47310657638567]
ソーシャルメディア処理のための大規模ビジョン言語モデル(SoMeLVLM)を提案する。
SoMeLVLMは、知識と理解、応用、分析、評価、作成を含む5つの重要な機能を備えた認知フレームワークである。
実験により,複数のソーシャルメディアタスクにおいて,SoMeLVLMが最先端のパフォーマンスを達成できることが実証された。
論文 参考訳(メタデータ) (2024-02-20T14:02:45Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - Attention-based Interactive Disentangling Network for Instance-level
Emotional Voice Conversion [81.1492897350032]
感情音声変換(Emotional Voice Conversion)は、非感情成分を保存しながら、与えられた感情に応じて音声を操作することを目的とする。
本稿では,音声変換にインスタンスワイドな感情知識を活用する,意図に基づく対話型ディスタングネットワーク(AINN)を提案する。
論文 参考訳(メタデータ) (2023-12-29T08:06:45Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Emotion Analysis using Multi-Layered Networks for Graphical
Representation of Tweets [0.10499611180329801]
そこで本稿では,複数層ネットワーク(MLN)を用いたソーシャルメディアテキストのグラフィカルなモデル化手法を提案する。
最先端のグラフニューラルネットワーク(GNN)は、Tweet-MLNから情報を抽出し、抽出したグラフの特徴に基づいて予測を行う。
その結果、MLTAはより大きな感情から予測し、通常のポジティブ、ネガティブ、中立的な感情よりも正確な感情を提供するだけでなく、Twitterデータのグループレベルの正確な予測を可能にしている。
論文 参考訳(メタデータ) (2022-07-02T20:26:55Z) - Detecting and Understanding Harmful Memes: A Survey [48.135415967633676]
我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
論文 参考訳(メタデータ) (2022-05-09T13:43:27Z) - Do Images really do the Talking? Analysing the significance of Images in
Tamil Troll meme classification [0.16863755729554888]
我々は,ミームの分類における画像の視覚的特徴の重要性を探究する。
画像とテキストに基づいて,ミームをトロール・ノントロールのミームとして組み込もうとする。
論文 参考訳(メタデータ) (2021-08-09T09:04:42Z) - SemEval-2020 Task 8: Memotion Analysis -- The Visuo-Lingual Metaphor! [20.55903557920223]
本提案の目的は,インターネットミームの自動処理に研究コミュニティの注意を向けることである。
タスクMemotion分析は、10Kのアノテートミームをリリースし、人間のアノテートラベルは感情(肯定的、否定的、中立的)、感情のタイプ(皮肉的、面白い、攻撃的、動機的、動機的)とそれに対応する強さである。
課題は、ミームの感情(肯定的、否定的、中立的)分析、全体的な感情(感情、皮肉、攻撃的、動機的)分類、ミームの強さの分類である。
論文 参考訳(メタデータ) (2020-08-09T18:17:33Z) - YNU-HPCC at SemEval-2020 Task 8: Using a Parallel-Channel Model for
Memotion Analysis [11.801902984731129]
本稿では,ミーム内のテキスト情報と視覚情報を処理する並列チャネルモデルを提案する。
ミームを識別・分類する共有タスクでは、ソーシャルメディア上での言語行動に応じてデータセットを前処理する。
次に、変換器からの双方向表現(BERT)を適応・微調整し、画像から特徴を抽出するために2種類の畳み込みニューラルネットワークモデル(CNN)を用いた。
論文 参考訳(メタデータ) (2020-07-28T03:20:31Z) - IITK at SemEval-2020 Task 8: Unimodal and Bimodal Sentiment Analysis of
Internet Memes [2.2385755093672044]
本稿では,SemEval-2020 Task 8における感情分析問題に対するアプローチを提案する。
このタスクの目的は、感情の内容と感情に基づいてミームを分類することである。
この結果から,Word2vecを入力として組み込んだ単純なフィードフォワードニューラルネットワーク(FFNN)は,他のすべてよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-21T14:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。