論文の概要: Dank or Not? -- Analyzing and Predicting the Popularity of Memes on
Reddit
- arxiv url: http://arxiv.org/abs/2011.14326v2
- Date: Fri, 22 Jan 2021 08:31:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 12:31:11.132753
- Title: Dank or Not? -- Analyzing and Predicting the Popularity of Memes on
Reddit
- Title(参考訳): ダンクかノーか?
--redditのミーム人気の分析と予測
- Authors: Kate Barnes, Tiernon Riesenmy, Minh Duc Trinh, Eli Lleshi, N\'ora
Balogh, Roland Molontay
- Abstract要約: 我々は、2020年3月中旬にRedditから収集された129,326ミームのデータを分析した。
ミームの成功は、そのコンテンツだけでは適度に予測できる。
また、画像関連属性とテキスト属性の両方が、相互に顕著な漸進的な予測力を持つことがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Internet memes have become an increasingly pervasive form of contemporary
social communication that attracted a lot of research interest recently. In
this paper, we analyze the data of 129,326 memes collected from Reddit in the
middle of March, 2020, when the most serious coronavirus restrictions were
being introduced around the world. This article not only provides a looking
glass into the thoughts of Internet users during the COVID-19 pandemic but we
also perform a content-based predictive analysis of what makes a meme go viral.
Using machine learning methods, we also study what incremental predictive power
image related attributes have over textual attributes on meme popularity. We
find that the success of a meme can be predicted based on its content alone
moderately well, our best performing machine learning model predicts viral
memes with AUC=0.68. We also find that both image related and textual
attributes have significant incremental predictive power over each other.
- Abstract(参考訳): インターネットミームは、近年多くの研究の関心を惹きつける現代社会コミュニケーションの広まりつつある形態になりつつある。
本稿では、2020年3月中旬にRedditから収集された129,326ミームのデータを分析し、世界で最も深刻な新型コロナウイルスの規制が世界中で導入されている。
この記事は、新型コロナウイルス(COVID-19)パンデミックにおけるインターネットユーザの考えを垣間見るだけでなく、ミームがバイラルに広まる理由に関するコンテンツベースの予測分析も行います。
また,機械学習手法を用いて,ミーム人気に関するテキスト属性よりも,画像関連属性のインクリメンタル予測について検討した。
AUC=0.68では,その内容のみに基づいてミームの成功を予測することができ,最高の機械学習モデルによりバイラルミームを予測することができる。
また,画像関連属性とテキスト属性の両方が,相互に有意な漸進的な予測能力を持っていることもわかった。
関連論文リスト
- XMeCap: Meme Caption Generation with Sub-Image Adaptability [53.2509590113364]
社会的な意味や文化的な詳細に深く根ざした噂は、機械にとってユニークな挑戦である。
我々は、教師付き微調整と強化学習を採用するtextscXMeCapフレームワークを紹介した。
textscXMeCapは、シングルイメージのミームの平均評価スコアが75.85で、マルチイメージのミームは66.32で、それぞれ3.71%と4.82%で最高のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-07-24T10:51:46Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - Contextualizing Internet Memes Across Social Media Platforms [8.22187358555391]
我々は,知識のセマンティックリポジトリ,すなわち知識グラフを用いて,インターネットミームを文脈化できるかどうかを検討する。
RedditとDiscordという2つのソーシャルメディアプラットフォームから何千もの潜在的なインターネットミーム投稿を収集し、抽出-変換-ロード手順を開発し、候補ミーム投稿とデータレイクを作成します。
視覚変換器をベースとした類似性を利用して、これらの候補をIMKGでカタログ化されたミーム(インターネットミームの知識グラフ)と比較する。
論文 参考訳(メタデータ) (2023-11-18T20:18:18Z) - A Template Is All You Meme [83.05919383106715]
我々は,54,000枚以上の画像からなる www.knowyourme.com で発見されたミームと情報の知識ベースをリリースする。
我々は、ミームテンプレートが、以前のアプローチから欠落したコンテキストでモデルを注入するのに使えると仮定する。
論文 参考訳(メタデータ) (2023-11-11T19:38:14Z) - Detecting and Understanding Harmful Memes: A Survey [48.135415967633676]
我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
論文 参考訳(メタデータ) (2022-05-09T13:43:27Z) - Feels Bad Man: Dissecting Automated Hateful Meme Detection Through the
Lens of Facebook's Challenge [10.775419935941008]
我々は,現在最先端のマルチモーダル機械学習モデルのヘイトフルミーム検出に対する有効性を評価する。
4chanの"Politically Incorrect"ボード(/pol/)とFacebookのHateful Memes Challengeデータセットの12,140と10,567の2つのベンチマークデータセットを使用します。
分類性能におけるマルチモーダリティの重要性,主流のソーシャルプラットフォーム上でのWebコミュニティの影響力,その逆の3つの実験を行った。
論文 参考訳(メタデータ) (2022-02-17T07:52:22Z) - Memes in the Wild: Assessing the Generalizability of the Hateful Memes
Challenge Dataset [47.65948529524281]
Pinterestからヘイトフルで非ヘイトフルなミームを収集して、Facebookデータセットで事前トレーニングされたモデルで、サンプル外のパフォーマンスを評価します。
1) キャプションをOCRで抽出しなければならない,2) ミームは従来のミームよりも多様であり, 会話のスクリーンショットやテキストをプレーンな背景に表示する,という2つの重要な側面がある。
論文 参考訳(メタデータ) (2021-07-09T09:04:05Z) - Entropy and complexity unveil the landscape of memes evolution [105.59074436693487]
われわれは、2011年から2020年までの10年間で、Redditから200万のビジュアルミームの進化を研究した。
ミームは新たなインターネットメタ言語の一部であるという仮説を支持する。
論文 参考訳(メタデータ) (2021-05-26T07:41:09Z) - Dissecting the Meme Magic: Understanding Indicators of Virality in Image
Memes [11.491215688828518]
非常にバイラルなミームは、クローズアップスケールを使用し、キャラクターを包含し、ポジティブな感情やネガティブな感情を含む傾向にある。
一方、明瞭な主題を提示しない画像ミームは、視聴者が注意を向けたり、長いテキストを含む画像ミームは、ユーザーによって再共有されがちである。
われわれは機械学習モデルを訓練し、バイラルになりそうな画像ミームと、再共有される可能性が低い画像ミームを区別する。
論文 参考訳(メタデータ) (2021-01-16T22:36:51Z) - SemEval-2020 Task 8: Memotion Analysis -- The Visuo-Lingual Metaphor! [20.55903557920223]
本提案の目的は,インターネットミームの自動処理に研究コミュニティの注意を向けることである。
タスクMemotion分析は、10Kのアノテートミームをリリースし、人間のアノテートラベルは感情(肯定的、否定的、中立的)、感情のタイプ(皮肉的、面白い、攻撃的、動機的、動機的)とそれに対応する強さである。
課題は、ミームの感情(肯定的、否定的、中立的)分析、全体的な感情(感情、皮肉、攻撃的、動機的)分類、ミームの強さの分類である。
論文 参考訳(メタデータ) (2020-08-09T18:17:33Z) - Automatic Discovery of Political Meme Genres with Diverse Appearances [7.3228874258537875]
多様な外観の政治的ジャンルを発見するために,スケーラブルな自動視覚認識パイプラインを導入する。
このパイプラインは、ソーシャルネットワークからミーム画像を取り込み、コンピュータビジョンベースの技術を用いて局所的な特徴を抽出し、ミームを関連するジャンルに整理することができる。
提案手法は, 視覚的に多彩な画像が共通のスタイル的要素を共有できるような, 新たなミームジャンルを発見できることを示す。
論文 参考訳(メタデータ) (2020-01-17T00:45:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。