論文の概要: Multimodal Feature Extraction for Memes Sentiment Classification
- arxiv url: http://arxiv.org/abs/2207.03317v1
- Date: Thu, 7 Jul 2022 14:21:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-08 20:13:57.757625
- Title: Multimodal Feature Extraction for Memes Sentiment Classification
- Title(参考訳): ミーム感情分類のためのマルチモーダル特徴抽出
- Authors: Sofiane Ouaari, Tsegaye Misikir Tashu, Tomas Horvath
- Abstract要約: 本稿では,Deep Learning アプローチを用いたマルチモーダルミーム分類のための特徴抽出を提案する。
ミーム(英: meme)は、ソーシャルメディアプラットフォーム上で若い世代が共有する写真やビデオであり、文化的に関係のある考えを表している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we propose feature extraction for multimodal meme
classification using Deep Learning approaches. A meme is usually a photo or
video with text shared by the young generation on social media platforms that
expresses a culturally relevant idea. Since they are an efficient way to
express emotions and feelings, a good classifier that can classify the
sentiment behind the meme is important. To make the learning process more
efficient, reduce the likelihood of overfitting, and improve the
generalizability of the model, one needs a good approach for joint feature
extraction from all modalities. In this work, we proposed to use different
multimodal neural network approaches for multimodal feature extraction and use
the extracted features to train a classifier to identify the sentiment in a
meme.
- Abstract(参考訳): 本研究では,Deep Learningアプローチを用いたマルチモーダルミーム分類のための特徴抽出を提案する。
ミーム(英: meme)は、ソーシャルメディア上で若い世代が共有する写真やビデオで、文化的に関係のある考えを表す。
感情や感情を表現する効率的な方法であるため、ミームの背後にある感情を分類できる優れた分類器が重要である。
学習プロセスをより効率的にし、オーバーフィッティングの可能性を低減し、モデルの一般化性を向上させるためには、全てのモダリティから共同特徴抽出のための優れたアプローチが必要である。
本研究では,マルチモーダル特徴抽出に異なるマルチモーダルニューラルネットワークアプローチを用い,抽出した特徴を用いて,ミーム内の感情を識別するための分類器を訓練する。
関連論文リスト
- Hierarchical Banzhaf Interaction for General Video-Language Representation Learning [60.44337740854767]
マルチモーダル表現学習は人工知能領域において重要な役割を担っている。
本稿では,多変量協調ゲーム理論を用いて,ビデオテキストをゲームプレイヤーとしてモデル化する手法を提案する。
元の構造をフレキシブルなエンコーダ・デコーダ・フレームワークに拡張し、モデルが様々な下流タスクに適応できるようにする。
論文 参考訳(メタデータ) (2024-12-30T14:09:15Z) - XMeCap: Meme Caption Generation with Sub-Image Adaptability [53.2509590113364]
社会的な意味や文化的な詳細に深く根ざした噂は、機械にとってユニークな挑戦である。
我々は、教師付き微調整と強化学習を採用するtextscXMeCapフレームワークを紹介した。
textscXMeCapは、シングルイメージのミームの平均評価スコアが75.85で、マルチイメージのミームは66.32で、それぞれ3.71%と4.82%で最高のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-07-24T10:51:46Z) - TextAug: Test time Text Augmentation for Multimodal Person
Re-identification [8.557492202759711]
マルチモーダルディープラーニングのボトルネックは、多数のマルチモーダルトレーニング例の必要性にある。
画像領域では、トリミング、フリップ、回転などのデータ拡張技術がよく使われ、ディープラーニングモデルの一般化が向上する。
本研究では,マルチモーダルな人物再識別において,カットアウトとカットミックスという2つのコンピュータビジョンデータ拡張手法の有効性について検討した。
論文 参考訳(メタデータ) (2023-12-04T03:38:04Z) - Learning Unseen Modality Interaction [54.23533023883659]
マルチモーダル学習は、すべてのモダリティの組み合わせが訓練中に利用でき、クロスモーダル対応を学ぶことを前提としている。
我々は、目に見えないモダリティ相互作用の問題を提起し、第1の解を導入する。
異なるモジュラリティの多次元的特徴を、豊富な情報を保存した共通空間に投影するモジュールを利用する。
論文 参考訳(メタデータ) (2023-06-22T10:53:10Z) - EMERSK -- Explainable Multimodal Emotion Recognition with Situational
Knowledge [0.0]
状況知識を用いた説明可能なマルチモーダル感情認識(EMERSK)を提案する。
EMERSKは視覚情報を用いた人間の感情認識と説明のための汎用システムである。
本システムは, 表情, 姿勢, 歩行などの複数のモーダルを柔軟かつモジュラーな方法で処理することができる。
論文 参考訳(メタデータ) (2023-06-14T17:52:37Z) - SemiMemes: A Semi-supervised Learning Approach for Multimodal Memes
Analysis [0.0]
SemiMemesは、自動エンコーダと分類タスクを組み合わせて、リソース豊富な未ラベルデータを利用する新しいトレーニング手法である。
本研究は、他のマルチモーダル・セミ教師あり学習モデルよりも優れた、マルチモーダル・セミ教師あり学習手法を提案する。
論文 参考訳(メタデータ) (2023-03-31T11:22:03Z) - What do you MEME? Generating Explanations for Visual Semantic Role
Labelling in Memes [42.357272117919464]
ミームにおける視覚的意味的役割のラベル付けに関する説明を生成する新しいタスク-EXCLAIMを導入する。
この目的のために,3種類のエンティティに対する意味的役割の自然言語説明を提供する新しいデータセットであるExHVVをキュレートする。
また,EXCLAIMを最適に扱える新しいマルチモーダル・マルチタスク学習フレームワークであるLUMENを提案する。
論文 参考訳(メタデータ) (2022-12-01T18:21:36Z) - Hate-CLIPper: Multimodal Hateful Meme Classification based on
Cross-modal Interaction of CLIP Features [5.443781798915199]
憎しみを込めたミームはソーシャルメディアの脅威になりつつある。
憎しみに満ちたミームを 検出するには 視覚情報とテキスト情報の両方を 慎重に考慮する必要がある
本稿では,Hate-CLIPperアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-10-12T04:34:54Z) - Multi-Modal Few-Shot Object Detection with Meta-Learning-Based
Cross-Modal Prompting [77.69172089359606]
本稿では,マルチモーダルな複数ショットオブジェクト検出(FSOD)について,少数ショット視覚例とクラスセマンティック情報の両方を用いて検討する。
我々のアプローチは、(メトリックベース)メタラーニングとプロンプトベースラーニングの高レベルな概念的類似性によって動機付けられている。
提案するマルチモーダルFSODモデルを,複数の複数ショットオブジェクト検出ベンチマークで総合的に評価し,有望な結果を得た。
論文 参考訳(メタデータ) (2022-04-16T16:45:06Z) - Routing with Self-Attention for Multimodal Capsule Networks [108.85007719132618]
我々は,カプセルの強度をマルチモーダル学習フレームワークの文脈で活用できる,新しいマルチモーダルカプセルネットワークを提案する。
カプセルを大規模入力データに適応させるために, カプセルを選択する自己保持機構による新たなルーティングを提案する。
これにより、ノイズの多いビデオデータによる堅牢なトレーニングだけでなく、従来のルーティング方法と比較してカプセルネットワークのサイズを拡大することが可能になる。
論文 参考訳(メタデータ) (2021-12-01T19:01:26Z) - Attentive CutMix: An Enhanced Data Augmentation Approach for Deep
Learning Based Image Classification [58.20132466198622]
そこで我々は,CutMixに基づく自然拡張拡張戦略であるAttentive CutMixを提案する。
各トレーニングイテレーションにおいて、特徴抽出器から中間注意マップに基づいて最も記述性の高い領域を選択する。
提案手法は単純かつ有効であり,実装が容易であり,ベースラインを大幅に向上させることができる。
論文 参考訳(メタデータ) (2020-03-29T15:01:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。