論文の概要: MAMA-Memeia! Multi-Aspect Multi-Agent Collaboration for Depressive Symptoms Identification in Memes
- arxiv url: http://arxiv.org/abs/2512.25015v1
- Date: Wed, 31 Dec 2025 18:06:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.739088
- Title: MAMA-Memeia! Multi-Aspect Multi-Agent Collaboration for Depressive Symptoms Identification in Memes
- Title(参考訳): MAMA-Memeia! マイムにおける抑うつ症状同定のための多面的マルチエージェント協調
- Authors: Siddhant Agarwal, Adya Dhuler, Polly Ruhnke, Melvin Speisman, Md Shad Akhtar, Shweta Yadav,
- Abstract要約: オンラインソーシャルメディアプラットフォームの利用者が共有するミームによる抑うつ症状の同定について検討する。
本稿では,Large Language Model (LLM) の生成と人為的な説明を通じて,ソーシャルメディア上での抑うつ症状を検出するための重要なリソースとしてRESTORExを紹介した。
我々は,認知分析療法(CAT)能力の臨床的心理学的手法を基盤としたマルチエージェント多面的議論フレームワークMAMAMemeiaを紹介する。
- 参考スコア(独自算出の注目度): 13.801362394464812
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Over the past years, memes have evolved from being exclusively a medium of humorous exchanges to one that allows users to express a range of emotions freely and easily. With the ever-growing utilization of memes in expressing depressive sentiments, we conduct a study on identifying depressive symptoms exhibited by memes shared by users of online social media platforms. We introduce RESTOREx as a vital resource for detecting depressive symptoms in memes on social media through the Large Language Model (LLM) generated and human-annotated explanations. We introduce MAMAMemeia, a collaborative multi-agent multi-aspect discussion framework grounded in the clinical psychology method of Cognitive Analytic Therapy (CAT) Competencies. MAMAMemeia improves upon the current state-of-the-art by 7.55% in macro-F1 and is established as the new benchmark compared to over 30 methods.
- Abstract(参考訳): 過去数年間、ミームはユーモラスな交流の媒体から、ユーザーが自由に簡単に様々な感情を表現できるものへと進化してきた。
うつ病の感情を表現するためのミームの利用が絶え間なく増加する中、オンラインソーシャルメディアプラットフォームの利用者が共有するミームによるうつ病症状の識別に関する研究を行っている。
本稿では,Large Language Model (LLM) の生成と人為的な説明を通じて,ソーシャルメディア上での抑うつ症状を検出するための重要なリソースとしてRESTORExを紹介した。
我々は,認知分析療法(CAT)能力の臨床的心理学的手法を基盤としたマルチエージェント多面的議論フレームワークMAMAMemeiaを紹介する。
MAMAMemeiaは、マクロF1における現在の最先端を7.55%改善し、30以上のメソッドと比較して新しいベンチマークとして確立されている。
関連論文リスト
- Meme Similarity and Emotion Detection using Multimodal Analysis [0.0]
本研究は,メメオの視覚的要素とテキスト的要素の両方を分析し,多モーダルな方法論的アプローチを採用する。
我々は、類似のミームペアを特定するために、低レベル視覚特徴と高レベル意味特徴を抽出する。
結果は、怒りと喜びがミームにおける支配的な感情であり、動機的なミームはより強い感情的反応をもたらすことを示している。
論文 参考訳(メタデータ) (2025-03-21T19:07:16Z) - Figurative-cum-Commonsense Knowledge Infusion for Multimodal Mental Health Meme Classification [12.953830867972885]
我々は,ミームを6つのきめ細かい不安症状に分類する新しいデータセットAxiOMを紹介した。
次に、図形言語と常識知識を解釈する能力を高めるために、コモンセンスとドメイン富化フレームワークM3Hを提案する。
総合的な目標は、まず最初に理解し、それからミームで表されるメンタルヘルスの症状を分類することである。
論文 参考訳(メタデータ) (2025-01-25T20:36:21Z) - Depression detection from Social Media Bangla Text Using Recurrent Neural Networks [1.1874952582465599]
ソーシャルメディア投稿の感情を分析し、社会に対する肯定的、否定的、感情的な行動を検出することができる。
感情分析における重要な課題の1つは、精神疾患の根本原因であるソーシャルメディアのテキストから落ち込んだテキストを特定することである。
本稿では,抑うつに着目した感情分析を行うために,Facebookのテキストに自然言語処理手法を適用した。
論文 参考訳(メタデータ) (2024-12-08T08:53:51Z) - MemeMQA: Multimodal Question Answering for Memes via Rationale-Based Inferencing [53.30190591805432]
構造化された質問に対する正確な応答を求めるマルチモーダルな質問応答フレームワークであるMemeMQAを紹介する。
また,MemeMQAに対処する新しい2段階マルチモーダルフレームワークであるARSENALを提案する。
論文 参考訳(メタデータ) (2024-05-18T07:44:41Z) - Emotion-Aware Multimodal Fusion for Meme Emotion Detection [37.86468816979694]
MOOD(Meme emOtiOns データセット)は6つの基本的な感情を具現化する。
ALFRED (emotion-Aware muLtimodal Fusion foR Emotion Detection) は感情に富んだ視覚的手がかりを明示的にモデル化する。
論文 参考訳(メタデータ) (2024-03-15T13:20:38Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - Semantic Similarity Models for Depression Severity Estimation [53.72188878602294]
本稿では、ソーシャルメディアの文章に基づいて、個人のうつ病の重症度を研究するための効率的なセマンティックパイプラインを提案する。
我々は,抑うつ症状と重度レベルに対応する代表訓練文の指標に対して意味的ランキングを生成するために,テストユーザ文を使用する。
本手法を2つのRedditベースのベンチマークで評価し,うつ病の重症度を指標として,最先端技術よりも30%改善した。
論文 参考訳(メタデータ) (2022-11-14T18:47:26Z) - MAFW: A Large-scale, Multi-modal, Compound Affective Database for
Dynamic Facial Expression Recognition in the Wild [56.61912265155151]
大規模複合感情データベースMAFWを提案する。
各クリップには、複雑な感情カテゴリーと、クリップ内の被験者の感情行動を記述する2つの文が注釈付けされている。
複合感情のアノテーションでは、それぞれのクリップは、怒り、嫌悪感、恐怖、幸福、中立、悲しみ、驚き、軽蔑、不安、無力感、失望など、広く使われている11の感情のうちの1つ以上に分類される。
論文 参考訳(メタデータ) (2022-08-01T13:34:33Z) - SemEval-2020 Task 8: Memotion Analysis -- The Visuo-Lingual Metaphor! [20.55903557920223]
本提案の目的は,インターネットミームの自動処理に研究コミュニティの注意を向けることである。
タスクMemotion分析は、10Kのアノテートミームをリリースし、人間のアノテートラベルは感情(肯定的、否定的、中立的)、感情のタイプ(皮肉的、面白い、攻撃的、動機的、動機的)とそれに対応する強さである。
課題は、ミームの感情(肯定的、否定的、中立的)分析、全体的な感情(感情、皮肉、攻撃的、動機的)分類、ミームの強さの分類である。
論文 参考訳(メタデータ) (2020-08-09T18:17:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。