論文の概要: Unimodal Intermediate Training for Multimodal Meme Sentiment
Classification
- arxiv url: http://arxiv.org/abs/2308.00528v1
- Date: Tue, 1 Aug 2023 13:14:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 14:00:43.160294
- Title: Unimodal Intermediate Training for Multimodal Meme Sentiment
Classification
- Title(参考訳): マルチモーダルミーム感情分類のためのユニモーダル中間訓練
- Authors: Muzhaffar Hazman, Susan McKeever, Josephine Griffith
- Abstract要約: 本報告では、比較的豊富な感情ラベル付き一助データを用いた教師付き中間訓練の新たな変種について述べる。
本結果より, 単文データの導入により, 統計的に有意な性能向上が得られた。
下流モデルの性能を低下させることなく,ラベル付きミームのトレーニングセットを40%削減できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Internet Memes remain a challenging form of user-generated content for
automated sentiment classification. The availability of labelled memes is a
barrier to developing sentiment classifiers of multimodal memes. To address the
shortage of labelled memes, we propose to supplement the training of a
multimodal meme classifier with unimodal (image-only and text-only) data. In
this work, we present a novel variant of supervised intermediate training that
uses relatively abundant sentiment-labelled unimodal data. Our results show a
statistically significant performance improvement from the incorporation of
unimodal text data. Furthermore, we show that the training set of labelled
memes can be reduced by 40% without reducing the performance of the downstream
model.
- Abstract(参考訳): インターネットミームは、自動感情分類のためのユーザー生成コンテンツの挑戦的な形態である。
ラベル付きミームの可用性は、マルチモーダルミームの感情分類器を開発する上での障壁である。
ラベル付きミームの不足に対処するために,ユニモーダル(画像のみとテキストのみ)データを用いたマルチモーダルミーム分類器のトレーニングを補完する。
そこで本研究では,比較的豊富な感情適応型ユニモーダルデータを用いた教師付き中間訓練の変種を提案する。
その結果,ユニモーダルテキストデータの導入により統計的に有意な性能改善が得られた。
さらに,ラベル付きミームのトレーニングセットを,下流モデルの性能を低下させることなく40%削減できることを示した。
関連論文リスト
- XMeCap: Meme Caption Generation with Sub-Image Adaptability [53.2509590113364]
社会的な意味や文化的な詳細に深く根ざした噂は、機械にとってユニークな挑戦である。
我々は、教師付き微調整と強化学習を採用するtextscXMeCapフレームワークを紹介した。
textscXMeCapは、シングルイメージのミームの平均評価スコアが75.85で、マルチイメージのミームは66.32で、それぞれ3.71%と4.82%で最高のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-07-24T10:51:46Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - Explainable Multimodal Sentiment Analysis on Bengali Memes [0.0]
ミームの根底にある感情を理解し、解釈することは、情報の時代において重要になっている。
本研究ではResNet50とBanglishBERTを用いたマルチモーダル手法を用いて0.71重み付きF1スコアの良好な結果を得た。
論文 参考訳(メタデータ) (2023-12-20T17:15:10Z) - Mapping Memes to Words for Multimodal Hateful Meme Classification [26.101116761577796]
一部のミームは悪意があり、ヘイトフルなコンテンツを宣伝し、差別を永続させる。
マルチモーダルヘイトフルミーム分類のためのISSUESという新しい手法を提案する。
提案手法は,Hateful Memes Challenge と HarMeme データセットの最先端化を実現する。
論文 参考訳(メタデータ) (2023-10-12T14:38:52Z) - Multimodal Prompt Learning for Product Title Generation with Extremely
Limited Labels [66.54691023795097]
本稿では,ラベルが限定された新商品のタイトルを生成するためのプロンプトベースアプローチ,すなわちマルチモーダル・プロンプト学習フレームワークを提案する。
我々は、新しい製品の対応する特性と書体を維持するために、異なるモダリティから多モーダルなプロンプトのセットを構築する。
トレーニング用ラベル付きデータの完全化により,本手法は最先端の結果が得られる。
論文 参考訳(メタデータ) (2023-07-05T00:40:40Z) - SemiMemes: A Semi-supervised Learning Approach for Multimodal Memes
Analysis [0.0]
SemiMemesは、自動エンコーダと分類タスクを組み合わせて、リソース豊富な未ラベルデータを利用する新しいトレーニング手法である。
本研究は、他のマルチモーダル・セミ教師あり学習モデルよりも優れた、マルチモーダル・セミ教師あり学習手法を提案する。
論文 参考訳(メタデータ) (2023-03-31T11:22:03Z) - The Hateful Memes Challenge Next Move [0.0]
ヘイトフルミームのようなテキストに埋め込まれた画像は、良心的な共同創設者のような難しい例がデータセットに組み込まれている場合、ユニモーダル推論を使って分類するのが困難である。
私たちは、Hateful Meme Challengeで優勝したチームのフレームワークに基づいて、Facebook AIのHateful Memesデータセットに加えて、より多くのラベル付きミームを生成しようとしています。
ラベル付きデータに対する半教師付き学習課題には人間の介入とフィルタリングが必要であり、新しいデータに限られた量を加えると、余分な分類性能が得られないことが判明した。
論文 参考訳(メタデータ) (2022-12-13T15:37:53Z) - DisinfoMeme: A Multimodal Dataset for Detecting Meme Intentionally
Spreading Out Disinformation [72.18912216025029]
偽情報ミームの検出を支援するためにDisinfoMemeを提案する。
このデータセットには、COVID-19パンデミック、Black Lives Matter運動、ベジタリアン/ベジタリアンという3つのトピックをカバーするRedditのミームが含まれている。
論文 参考訳(メタデータ) (2022-05-25T09:54:59Z) - MEmoBERT: Pre-training Model with Prompt-based Learning for Multimodal
Emotion Recognition [118.73025093045652]
マルチモーダル感情認識のための事前学習モデル textbfMEmoBERT を提案する。
従来の「訓練前、微妙な」パラダイムとは異なり、下流の感情分類タスクをマスク付きテキスト予測として再構成するプロンプトベースの手法を提案する。
提案するMEMOBERTは感情認識性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-10-27T09:57:00Z) - Caption Enriched Samples for Improving Hateful Memes Detection [78.5136090997431]
憎しみのあるミームの挑戦は、ミームが憎悪であるか否かを決定するのが困難であることを示している。
ユニモーダル言語モデルとマルチモーダル視覚言語モデルの両方が人間のパフォーマンスレベルに到達できない。
論文 参考訳(メタデータ) (2021-09-22T10:57:51Z) - Multimodal Learning for Hateful Memes Detection [6.6881085567421605]
本稿では,画像キャプション処理をミーム検出プロセスに組み込む新しい手法を提案する。
本モデルは,Hateful Memes Detection Challengeにおける有望な結果を得る。
論文 参考訳(メタデータ) (2020-11-25T16:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。