論文の概要: Towards Building an Open-Domain Dialogue System Incorporated with
Internet Memes
- arxiv url: http://arxiv.org/abs/2203.03835v1
- Date: Tue, 8 Mar 2022 03:54:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 14:30:25.877066
- Title: Towards Building an Open-Domain Dialogue System Incorporated with
Internet Memes
- Title(参考訳): インターネットを取り入れたオープンドメイン対話システムの構築に向けて
- Authors: Hua Lu, Zhen Guo, Chanjuan Li, Yunyi Yang, Huang He, Siqi Bao
- Abstract要約: 本稿では,MDC10 のオープンドメイン対話 (MOD) チャレンジに対するソリューションを提案する。
我々は,協調的かつ情報的応答生成のための大規模事前学習対話モデルを利用する。
インタラクションベースのテキストマッチングに基づいて,適切なミームを適切な一般化能力で検索できる。
- 参考スコア(独自算出の注目度): 19.57042922215698
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, Internet memes have been widely used in online chatting.
Compared with text-based communication, conversations become more expressive
and attractive when Internet memes are incorporated. This paper presents our
solutions for the Meme incorporated Open-domain Dialogue (MOD) Challenge of
DSTC10, where three tasks are involved: text response modeling, meme retrieval,
and meme emotion classification. Firstly, we leverage a large-scale pre-trained
dialogue model for coherent and informative response generation. Secondly,
based on interaction-based text-matching, our approach can retrieve appropriate
memes with good generalization ability. Thirdly, we propose to model the
emotion flow (EF) in conversations and introduce an auxiliary task of emotion
description prediction (EDP) to boost the performance of meme emotion
classification. Experimental results on the MOD dataset demonstrate that our
methods can incorporate Internet memes into dialogue systems effectively.
- Abstract(参考訳): 近年、インターネットのミームはオンラインチャットで広く使われている。
テキストベースのコミュニケーションと比較すると、インターネットのミームが組み込まれると会話はより表現豊かで魅力的になる。
本稿では,dstc10において,テキスト応答モデリング,ミーム検索,ミーム感情分類という3つのタスクが関与するミーム組込みオープンドメイン対話(mod)チャレンジのソリューションを提案する。
まず,協調的かつ情報的応答生成のための大規模事前学習対話モデルを利用する。
第2に,対話ベースのテキストマッチングに基づいて,適切なミームを一般化能力で検索する手法を提案する。
第3に,会話における情動フロー(EF)をモデル化し,感情記述予測(EDP)の補助的タスクを導入して,感情分類の性能を高めることを提案する。
MODデータセットによる実験結果から,インターネットミームを対話システムに効果的に組み込むことができることが示された。
関連論文リスト
- XMeCap: Meme Caption Generation with Sub-Image Adaptability [53.2509590113364]
社会的な意味や文化的な詳細に深く根ざした噂は、機械にとってユニークな挑戦である。
我々は、教師付き微調整と強化学習を採用するtextscXMeCapフレームワークを紹介した。
textscXMeCapは、シングルイメージのミームの平均評価スコアが75.85で、マルチイメージのミームは66.32で、それぞれ3.71%と4.82%で最高のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-07-24T10:51:46Z) - Let's Go Real Talk: Spoken Dialogue Model for Face-to-Face Conversation [55.043492250775294]
本稿では,新しい対面音声対話モデルを提案する。
ユーザ入力から音声視覚音声を処理し、応答として音声視覚音声を生成する。
また,最初の大規模マルチモーダル音声対話コーパスであるMultiDialogを紹介する。
論文 参考訳(メタデータ) (2024-06-12T04:48:36Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - Contextualizing Internet Memes Across Social Media Platforms [8.22187358555391]
我々は,知識のセマンティックリポジトリ,すなわち知識グラフを用いて,インターネットミームを文脈化できるかどうかを検討する。
RedditとDiscordという2つのソーシャルメディアプラットフォームから何千もの潜在的なインターネットミーム投稿を収集し、抽出-変換-ロード手順を開発し、候補ミーム投稿とデータレイクを作成します。
視覚変換器をベースとした類似性を利用して、これらの候補をIMKGでカタログ化されたミーム(インターネットミームの知識グラフ)と比較する。
論文 参考訳(メタデータ) (2023-11-18T20:18:18Z) - A Template Is All You Meme [83.05919383106715]
我々は,54,000枚以上の画像からなる www.knowyourme.com で発見されたミームと情報の知識ベースをリリースする。
我々は、ミームテンプレートが、以前のアプローチから欠落したコンテキストでモデルを注入するのに使えると仮定する。
論文 参考訳(メタデータ) (2023-11-11T19:38:14Z) - MEMEX: Detecting Explanatory Evidence for Memes via Knowledge-Enriched
Contextualization [31.209594252045566]
本稿では,ミームと関連する文書を与えられた新しいタスクMEMEXを提案し,ミームの背景を簡潔に説明するコンテキストを掘り下げることを目的とする。
MCCをベンチマークするために,共通感覚に富んだミーム表現を用いたマルチモーダル・ニューラル・フレームワークであるMIMEと,ミームとコンテキスト間の相互モーダルなセマンティック依存関係を捉える階層的アプローチを提案する。
論文 参考訳(メタデータ) (2023-05-25T10:19:35Z) - Detecting and Understanding Harmful Memes: A Survey [48.135415967633676]
我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
論文 参考訳(メタデータ) (2022-05-09T13:43:27Z) - Towards Expressive Communication with Internet Memes: A New Multimodal
Conversation Dataset and Benchmark [28.255324166852535]
我々はtextbfMeme を組み込んだ textbfOpen- domain textbfDialogue (MOD) という新しいタスクを提案する。
MODは、モデルがマルチモーダル要素とそれらの背後にある感情を理解する必要があるため、はるかに難しいです。
大量のインターネットミームを発話に組み込んだ大規模オープンドメインマルチモーダル対話データセットを構築した。
論文 参考訳(メタデータ) (2021-09-04T10:39:52Z) - Do Images really do the Talking? Analysing the significance of Images in
Tamil Troll meme classification [0.16863755729554888]
我々は,ミームの分類における画像の視覚的特徴の重要性を探究する。
画像とテキストに基づいて,ミームをトロール・ノントロールのミームとして組み込もうとする。
論文 参考訳(メタデータ) (2021-08-09T09:04:42Z) - Memes in the Wild: Assessing the Generalizability of the Hateful Memes
Challenge Dataset [47.65948529524281]
Pinterestからヘイトフルで非ヘイトフルなミームを収集して、Facebookデータセットで事前トレーニングされたモデルで、サンプル外のパフォーマンスを評価します。
1) キャプションをOCRで抽出しなければならない,2) ミームは従来のミームよりも多様であり, 会話のスクリーンショットやテキストをプレーンな背景に表示する,という2つの重要な側面がある。
論文 参考訳(メタデータ) (2021-07-09T09:04:05Z) - SemEval-2020 Task 8: Memotion Analysis -- The Visuo-Lingual Metaphor! [20.55903557920223]
本提案の目的は,インターネットミームの自動処理に研究コミュニティの注意を向けることである。
タスクMemotion分析は、10Kのアノテートミームをリリースし、人間のアノテートラベルは感情(肯定的、否定的、中立的)、感情のタイプ(皮肉的、面白い、攻撃的、動機的、動機的)とそれに対応する強さである。
課題は、ミームの感情(肯定的、否定的、中立的)分析、全体的な感情(感情、皮肉、攻撃的、動機的)分類、ミームの強さの分類である。
論文 参考訳(メタデータ) (2020-08-09T18:17:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。