論文の概要: Semantic Search of Memes on Twitter
- arxiv url: http://arxiv.org/abs/2002.01462v4
- Date: Wed, 20 May 2020 23:44:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 03:27:32.805114
- Title: Semantic Search of Memes on Twitter
- Title(参考訳): Twitter上のミームのセマンティック検索
- Authors: Jesus Perez-Martin, Benjamin Bustos, Magdalena Saldana
- Abstract要約: 本稿では,画像を自動的にミームとして分類するいくつかの手法を提案し,比較する。
チリのTwitterユーザから収集した大量のミームを用いて,提案手法を実験的に評価した。
- 参考スコア(独自算出の注目度): 0.8701566919381222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Memes are becoming a useful source of data for analyzing behavior on social
media. However, a problem to tackle is how to correctly identify a meme. As the
number of memes published every day on social media is huge, there is a need
for automatic methods for classifying and searching in large meme datasets.
This paper proposes and compares several methods for automatically classifying
images as memes. Also, we propose a method that allows us to implement a system
for retrieving memes from a dataset using a textual query. We experimentally
evaluate the methods using a large dataset of memes collected from Twitter
users in Chile, which was annotated by a group of experts. Though some of the
evaluated methods are effective, there is still room for improvement.
- Abstract(参考訳): ミームはソーシャルメディア上での行動分析に有用なデータ源になりつつある。
しかし、対処すべき問題は、ミームを正しく識別する方法である。
ソーシャルメディア上で毎日発行されるミームの数は膨大であるため、大規模なミームデータセットを分類・検索するための自動手法が必要である。
本稿では,画像を自動的にミームとして分類する手法を提案し,比較する。
また,テキストクエリを用いてデータセットからミームを検索するシステムを実現する手法を提案する。
チリのtwitterユーザーから収集されたミームの大規模なデータセットを用いて,提案手法を実験的に評価した。
評価方法のいくつかは有効であるが、改善の余地は残っている。
関連論文リスト
- Decoding Memes: A Comparative Study of Machine Learning Models for Template Identification [0.0]
ミームテンプレート(meme template)は、ミームを作成するのに使用されるレイアウトまたはフォーマットである。
ミームのバイラル性に関する広範な研究にもかかわらず、ミームのテンプレートを自動的に識別する作業は依然として課題である。
本稿では,既存のmemeテンプレート識別手法の総合的な比較と評価を行う。
論文 参考訳(メタデータ) (2024-08-15T12:52:06Z) - XMeCap: Meme Caption Generation with Sub-Image Adaptability [53.2509590113364]
社会的な意味や文化的な詳細に深く根ざした噂は、機械にとってユニークな挑戦である。
我々は、教師付き微調整と強化学習を採用するtextscXMeCapフレームワークを紹介した。
textscXMeCapは、シングルイメージのミームの平均評価スコアが75.85で、マルチイメージのミームは66.32で、それぞれ3.71%と4.82%で最高のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-07-24T10:51:46Z) - What Makes a Meme a Meme? Identifying Memes for Memetics-Aware Dataset Creation [0.9217021281095907]
マルチモーダルインターネットミームは現在、オンライン談話におけるユビキタスなフィクスチャとなっている。
ミームはミームを模倣してシンボルに変換する過程である。
我々は,ミームと非ミームコンテンツとを識別するミーム識別プロトコルを開発した。
論文 参考訳(メタデータ) (2024-07-16T15:48:36Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - Contextualizing Internet Memes Across Social Media Platforms [8.22187358555391]
我々は,知識のセマンティックリポジトリ,すなわち知識グラフを用いて,インターネットミームを文脈化できるかどうかを検討する。
RedditとDiscordという2つのソーシャルメディアプラットフォームから何千もの潜在的なインターネットミーム投稿を収集し、抽出-変換-ロード手順を開発し、候補ミーム投稿とデータレイクを作成します。
視覚変換器をベースとした類似性を利用して、これらの候補をIMKGでカタログ化されたミーム(インターネットミームの知識グラフ)と比較する。
論文 参考訳(メタデータ) (2023-11-18T20:18:18Z) - A Template Is All You Meme [83.05919383106715]
我々は,54,000枚以上の画像からなる www.knowyourme.com で発見されたミームと情報の知識ベースをリリースする。
我々は、ミームテンプレートが、以前のアプローチから欠落したコンテキストでモデルを注入するのに使えると仮定する。
論文 参考訳(メタデータ) (2023-11-11T19:38:14Z) - DisinfoMeme: A Multimodal Dataset for Detecting Meme Intentionally
Spreading Out Disinformation [72.18912216025029]
偽情報ミームの検出を支援するためにDisinfoMemeを提案する。
このデータセットには、COVID-19パンデミック、Black Lives Matter運動、ベジタリアン/ベジタリアンという3つのトピックをカバーするRedditのミームが含まれている。
論文 参考訳(メタデータ) (2022-05-25T09:54:59Z) - Detecting and Understanding Harmful Memes: A Survey [48.135415967633676]
我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
論文 参考訳(メタデータ) (2022-05-09T13:43:27Z) - Memes in the Wild: Assessing the Generalizability of the Hateful Memes
Challenge Dataset [47.65948529524281]
Pinterestからヘイトフルで非ヘイトフルなミームを収集して、Facebookデータセットで事前トレーニングされたモデルで、サンプル外のパフォーマンスを評価します。
1) キャプションをOCRで抽出しなければならない,2) ミームは従来のミームよりも多様であり, 会話のスクリーンショットやテキストをプレーンな背景に表示する,という2つの重要な側面がある。
論文 参考訳(メタデータ) (2021-07-09T09:04:05Z) - Multimodal Learning for Hateful Memes Detection [6.6881085567421605]
本稿では,画像キャプション処理をミーム検出プロセスに組み込む新しい手法を提案する。
本モデルは,Hateful Memes Detection Challengeにおける有望な結果を得る。
論文 参考訳(メタデータ) (2020-11-25T16:49:15Z) - Automatic Discovery of Political Meme Genres with Diverse Appearances [7.3228874258537875]
多様な外観の政治的ジャンルを発見するために,スケーラブルな自動視覚認識パイプラインを導入する。
このパイプラインは、ソーシャルネットワークからミーム画像を取り込み、コンピュータビジョンベースの技術を用いて局所的な特徴を抽出し、ミームを関連するジャンルに整理することができる。
提案手法は, 視覚的に多彩な画像が共通のスタイル的要素を共有できるような, 新たなミームジャンルを発見できることを示す。
論文 参考訳(メタデータ) (2020-01-17T00:45:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。