論文の概要: Memotion Analysis through the Lens of Joint Embedding
- arxiv url: http://arxiv.org/abs/2111.07074v1
- Date: Sat, 13 Nov 2021 09:22:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 09:33:58.281002
- Title: Memotion Analysis through the Lens of Joint Embedding
- Title(参考訳): 関節内挿レンズによる運動解析
- Authors: Nethra Gunti, Sathyanarayanan Ramamoorthy, Parth Patwa, Amitava Das
- Abstract要約: 共同埋め込みは、テキストが接地キーとして残るベクトル空間にマルチモーダルデータをエンコードする方法である。
ミームは一般的にテキストが埋め込まれた画像である。
共同埋め込みによる感情分析の問題点 結果がSOTAをわずかに上回っている
- 参考スコア(独自算出の注目度): 2.120324540042329
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Joint embedding (JE) is a way to encode multi-modal data into a vector space
where text remains as the grounding key and other modalities like image are to
be anchored with such keys. Meme is typically an image with embedded text onto
it. Although, memes are commonly used for fun, they could also be used to
spread hate and fake information. That along with its growing ubiquity over
several social platforms has caused automatic analysis of memes to become a
widespread topic of research. In this paper, we report our initial experiments
on Memotion Analysis problem through joint embeddings. Results are marginally
yielding SOTA.
- Abstract(参考訳): ジョイント埋め込み (JE) は、テキストがグラウンドキーとして残るベクトル空間にマルチモーダルデータをエンコードする方法であり、画像のようなモダリティはそのようなキーで固定される。
ミームは一般的にテキストが埋め込まれた画像である。
ミームは一般的に楽しむために使われるが、憎悪や偽の情報を広めるのにも用いられる。
いくつかのソーシャルプラットフォームへの普及とともに、ミームの自動分析が広く研究の話題になってきた。
本稿では,ジョイント埋め込みによる運動解析問題の最初の実験について報告する。
結果が微妙にsotaになる。
関連論文リスト
- XMeCap: Meme Caption Generation with Sub-Image Adaptability [53.2509590113364]
社会的な意味や文化的な詳細に深く根ざした噂は、機械にとってユニークな挑戦である。
我々は、教師付き微調整と強化学習を採用するtextscXMeCapフレームワークを紹介した。
textscXMeCapは、シングルイメージのミームの平均評価スコアが75.85で、マルチイメージのミームは66.32で、それぞれ3.71%と4.82%で最高のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-07-24T10:51:46Z) - Emotion-Aware Multimodal Fusion for Meme Emotion Detection [37.86468816979694]
MOOD(Meme emOtiOns データセット)は6つの基本的な感情を具現化する。
ALFRED (emotion-Aware muLtimodal Fusion foR Emotion Detection) は感情に富んだ視覚的手がかりを明示的にモデル化する。
論文 参考訳(メタデータ) (2024-03-15T13:20:38Z) - Text or Image? What is More Important in Cross-Domain Generalization
Capabilities of Hate Meme Detection Models? [2.4899077941924967]
本稿では,マルチモーダルヘイトミーム検出におけるクロスドメイン一般化の難題について述べる。
ヘイトフルミームのテキスト成分のみによって、既存のマルチモーダル分類器が異なる領域にわたって一般化できるという仮説を支持する十分な証拠を提供する。
新たに作成された共同創設者データセットに対する我々の評価は、画像共同創設者の0.18ドルの平均$Delta$F1と比較すると、テキスト共同創設者のより高いパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-07T15:44:55Z) - MemeFier: Dual-stage Modality Fusion for Image Meme Classification [8.794414326545697]
画像ミームのような新しいデジタルコンテンツは、マルチモーダル手段を用いてヘイトを広めるきっかけとなった。
インターネット画像ミームのきめ細かい分類のためのディープラーニングアーキテクチャであるMemeFierを提案する。
論文 参考訳(メタデータ) (2023-04-06T07:36:52Z) - Memotion 3: Dataset on Sentiment and Emotion Analysis of Codemixed
Hindi-English Memes [36.34201719103715]
私たちは、10,000の注釈付きミームを持つ新しいデータセットであるMemotion 3を紹介します。
Memotion 3ではHindi-English Codemixedミームが導入されている。
本稿では,Memotionタスク,データ収集,データセット作成手法について述べる。
論文 参考訳(メタデータ) (2023-03-17T11:13:30Z) - DisinfoMeme: A Multimodal Dataset for Detecting Meme Intentionally
Spreading Out Disinformation [72.18912216025029]
偽情報ミームの検出を支援するためにDisinfoMemeを提案する。
このデータセットには、COVID-19パンデミック、Black Lives Matter運動、ベジタリアン/ベジタリアンという3つのトピックをカバーするRedditのミームが含まれている。
論文 参考訳(メタデータ) (2022-05-25T09:54:59Z) - DISARM: Detecting the Victims Targeted by Harmful Memes [49.12165815990115]
DISARMは、有害なミームを検出するために名前付きエンティティ認識と個人識別を使用するフレームワークである。
DISARMは10の単一モーダル・マルチモーダルシステムより著しく優れていることを示す。
複数の強力なマルチモーダルライバルに対して、有害なターゲット識別の相対誤差率を最大9ポイントまで下げることができる。
論文 参考訳(メタデータ) (2022-05-11T19:14:26Z) - Detecting and Understanding Harmful Memes: A Survey [48.135415967633676]
我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
論文 参考訳(メタデータ) (2022-05-09T13:43:27Z) - Memes in the Wild: Assessing the Generalizability of the Hateful Memes
Challenge Dataset [47.65948529524281]
Pinterestからヘイトフルで非ヘイトフルなミームを収集して、Facebookデータセットで事前トレーニングされたモデルで、サンプル外のパフォーマンスを評価します。
1) キャプションをOCRで抽出しなければならない,2) ミームは従来のミームよりも多様であり, 会話のスクリーンショットやテキストをプレーンな背景に表示する,という2つの重要な側面がある。
論文 参考訳(メタデータ) (2021-07-09T09:04:05Z) - NewsCLIPpings: Automatic Generation of Out-of-Context Multimodal Media [93.51739200834837]
画像とテキストの両方を操作できないが一致しないデータセットを提案する。
本稿では,字幕に適した画像の自動検索手法をいくつか紹介する。
当社の大規模自動生成NewsCLIPpingsデータセットは、両方のモダリティを共同分析するモデルを必要とします。
論文 参考訳(メタデータ) (2021-04-13T01:53:26Z) - YNU-HPCC at SemEval-2020 Task 8: Using a Parallel-Channel Model for
Memotion Analysis [11.801902984731129]
本稿では,ミーム内のテキスト情報と視覚情報を処理する並列チャネルモデルを提案する。
ミームを識別・分類する共有タスクでは、ソーシャルメディア上での言語行動に応じてデータセットを前処理する。
次に、変換器からの双方向表現(BERT)を適応・微調整し、画像から特徴を抽出するために2種類の畳み込みニューラルネットワークモデル(CNN)を用いた。
論文 参考訳(メタデータ) (2020-07-28T03:20:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。