論文の概要: Memes-as-Replies: Can Models Select Humorous Manga Panel Responses?
- arxiv url: http://arxiv.org/abs/2602.15842v1
- Date: Wed, 21 Jan 2026 07:33:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 12:01:13.638503
- Title: Memes-as-Replies: Can Models Select Humorous Manga Panel Responses?
- Title(参考訳): ミーム・アズ・リプライ:モデルが多孔質マンガパネルの反応を選択できるか?
- Authors: Ryosuke Kohita, Seiichiro Yoshioka,
- Abstract要約: 提案するMeme Reply Selectionタスクと,100,000対の注釈付きペアのベンチマークであるMaMe-Re(2,325のユニークなアノテーションの合計50,000アノテーション)を紹介する。
分析の結果,(1)大言語モデル(LLM)は,誇張などの複雑な社会的手がかりを捉える予備的証拠を示し,(2)視覚情報の含意は,視覚的内容の理解と文脈的ユーモアの効果的利用のギャップを明らかにすること,(3)LLMは制御された環境において人間の判断に合致するが,意味的に類似した候補間の微妙な相違を区別することは困難であった。
- 参考スコア(独自算出の注目度): 0.7834991119179472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Memes are a popular element of modern web communication, used not only as static artifacts but also as interactive replies within conversations. While computational research has focused on analyzing the intrinsic properties of memes, the dynamic and contextual use of memes to create humor remains an understudied area of web science. To address this gap, we introduce the Meme Reply Selection task and present MaMe-Re (Manga Meme Reply Benchmark), a benchmark of 100,000 human-annotated pairs (500,000 total annotations from 2,325 unique annotators) consisting of openly licensed Japanese manga panels and social media posts. Our analysis reveals three key insights: (1) large language models (LLMs) show preliminary evidence of capturing complex social cues such as exaggeration, moving beyond surface-level semantic matching; (2) the inclusion of visual information does not improve performance, revealing a gap between understanding visual content and effectively using it for contextual humor; (3) while LLMs can match human judgments in controlled settings, they struggle to distinguish subtle differences in wit among semantically similar candidates. These findings suggest that selecting contextually humorous replies remains an open challenge for current models.
- Abstract(参考訳): ミームは現代のウェブコミュニケーションの一般的な要素であり、静的なアーティファクトとしてだけでなく、会話の中で対話的な応答としても使われる。
計算研究は、ミームの本質的な性質を分析することに重点を置いているが、ユーモアを生み出すためのミームの動的および文脈的使用は、Web科学の未研究領域として残されている。
このギャップに対処するために,マンガパネルとソーシャルメディア投稿をオープンにライセンスした10万対(2,325のユニークなアノテーションを含む総アノテーション50万)のベンチマークである,Meme Reply SelectionタスクとMaMe-Re(Manga Meme Reply Benchmark)を紹介した。
分析の結果,(1)大言語モデル(LLMs)は,表層的セマンティックマッチングを超えて,誇張などの複雑な社会的手がかりを捉える予備的証拠を示し,(2)視覚情報の包含は性能を向上せず,視覚内容の理解と文脈的ユーモアの効果的利用のギャップを明らかにし,(3)LLMは制御された設定において人間の判断に合致するが,意味的に類似した候補間の微妙な違いを区別することは困難であった。
これらの結果は、現在のモデルでは、文脈的にユーモラスな応答を選択することがオープンな課題であることを示している。
関連論文リスト
- AVMeme Exam: A Multimodal Multilingual Multicultural Benchmark for LLMs' Contextual and Cultural Knowledge and Thinking [59.15472057710525]
AVMeme Examは、音声、歌、音楽、サウンドエフェクトにまたがる、1000以上の象徴的なインターネットの音とビデオの人間による評価ベンチマークである。
各ミームは、表面コンテンツからコンテキスト、感情、使用法、世界知識への理解レベルを評価するユニークなQ&Aと組み合わせられる。
このベンチマークを用いて,最先端のマルチモーダル言語モデル (MLLM) を人間の参加者とともに体系的に評価した。
論文 参考訳(メタデータ) (2026-01-25T01:40:15Z) - MemeReaCon: Probing Contextual Meme Understanding in Large Vision-Language Models [50.2355423914562]
我々は,LVLM(Large Vision Language Models)がミームを本来の文脈でどのように理解するかを評価するために設計された,新しいベンチマークであるMemeReaConを紹介する。
私たちは5つのRedditコミュニティからミームを収集し、各ミームの画像、ポストテキスト、ユーザーコメントを一緒に保持しました。
モデルは文脈において重要な情報を解釈できないか、あるいはコミュニケーション目的を見越しながら視覚的詳細に過度に焦点を合わせるかのどちらかです。
論文 参考訳(メタデータ) (2025-05-23T03:27:23Z) - Meme Similarity and Emotion Detection using Multimodal Analysis [0.0]
本研究は,メメオの視覚的要素とテキスト的要素の両方を分析し,多モーダルな方法論的アプローチを採用する。
我々は、類似のミームペアを特定するために、低レベル視覚特徴と高レベル意味特徴を抽出する。
結果は、怒りと喜びがミームにおける支配的な感情であり、動機的なミームはより強い感情的反応をもたらすことを示している。
論文 参考訳(メタデータ) (2025-03-21T19:07:16Z) - Decoding Memes: A Comparative Study of Machine Learning Models for Template Identification [0.0]
ミームテンプレート(meme template)は、ミームを作成するのに使用されるレイアウトまたはフォーマットである。
ミームのバイラル性に関する広範な研究にもかかわらず、ミームのテンプレートを自動的に識別する作業は依然として課題である。
本稿では,既存のmemeテンプレート識別手法の総合的な比較と評価を行う。
論文 参考訳(メタデータ) (2024-08-15T12:52:06Z) - MemeMQA: Multimodal Question Answering for Memes via Rationale-Based Inferencing [53.30190591805432]
構造化された質問に対する正確な応答を求めるマルチモーダルな質問応答フレームワークであるMemeMQAを紹介する。
また,MemeMQAに対処する新しい2段階マルチモーダルフレームワークであるARSENALを提案する。
論文 参考訳(メタデータ) (2024-05-18T07:44:41Z) - PromptMTopic: Unsupervised Multimodal Topic Modeling of Memes using
Large Language Models [7.388466146105024]
テキストと視覚の両方からトピックを学習する新しいマルチモーダルプロンプトベースモデルであるtextPromptMTopicを提案する。
本モデルは,テキストと視覚的モダリティ間の意味的相互作用を考慮して,ミームから学習したトピックを効果的に抽出し,クラスタ化する。
我々の研究は、今日の社会における重要なコミュニケーション形態であるミームの話題とテーマの理解に寄与する。
論文 参考訳(メタデータ) (2023-12-11T03:36:50Z) - What do you MEME? Generating Explanations for Visual Semantic Role
Labelling in Memes [42.357272117919464]
ミームにおける視覚的意味的役割のラベル付けに関する説明を生成する新しいタスク-EXCLAIMを導入する。
この目的のために,3種類のエンティティに対する意味的役割の自然言語説明を提供する新しいデータセットであるExHVVをキュレートする。
また,EXCLAIMを最適に扱える新しいマルチモーダル・マルチタスク学習フレームワークであるLUMENを提案する。
論文 参考訳(メタデータ) (2022-12-01T18:21:36Z) - Towards Multimodal Prediction of Spontaneous Humour: A Novel Dataset and First Results [84.37263300062597]
風は人間の社会的行動、感情、認知の重要な要素である。
現在のユーモア検出法は、ステージ化されたデータのみに基づいており、「現実世界」の応用には不十分である。
約11時間の記録を含むPassau-Spontaneous Football Coach Humorデータセットを導入することで,この障害への対処に寄与する。
論文 参考訳(メタデータ) (2022-09-28T17:36:47Z) - DialogueNeRF: Towards Realistic Avatar Face-to-Face Conversation Video
Generation [54.84137342837465]
対面会話は毎日の会話の大部分を占める。
既存の手法のほとんどは、一人称音声音声生成に重点を置いている。
ニューラルレイディアンスフィールド(NeRF)に基づく新しい統合フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-15T14:16:49Z) - Exercise? I thought you said 'Extra Fries': Leveraging Sentence
Demarcations and Multi-hop Attention for Meme Affect Analysis [18.23523076710257]
MHA-MEMEと呼ばれるマルチホップアテンションベースのディープニューラルネットワークフレームワークを提案する。
その主な目的は、視覚モダリティ(画像)と様々なテキストセグメント間の空間領域対応を利用して、分類のためのきめ細かい特徴表現を抽出することである。
MHA-MEMEを3つのサブタスク(感情分類、影響分類、クラス定量化)すべてに対して'Memotion Analysis'データセット上で評価する。
論文 参考訳(メタデータ) (2021-03-23T08:21:37Z) - Dialogue History Matters! Personalized Response Selectionin Multi-turn
Retrieval-based Chatbots [62.295373408415365]
本稿では,コンテキスト応答マッチングのためのパーソナライズドハイブリッドマッチングネットワーク(phmn)を提案する。
1) ユーザ固有の対話履歴からパーソナライズされた発話行動を付加的なマッチング情報として抽出する。
ユーザ識別による2つの大規模データセット,すなわちパーソナライズされた対話 Corpus Ubuntu (P-Ubuntu) とパーソナライズされたWeiboデータセット (P-Weibo) のモデルを評価する。
論文 参考訳(メタデータ) (2021-03-17T09:42:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。