論文の概要: Automatic Discovery of Political Meme Genres with Diverse Appearances
- arxiv url: http://arxiv.org/abs/2001.06122v2
- Date: Thu, 10 Sep 2020 18:10:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 12:55:46.389902
- Title: Automatic Discovery of Political Meme Genres with Diverse Appearances
- Title(参考訳): 多様な外観をもつ政治ミームジャンルの自動発見
- Authors: William Theisen, Joel Brogan, Pamela Bilo Thomas, Daniel Moreira,
Pascal Phoa, Tim Weninger, Walter Scheirer
- Abstract要約: 多様な外観の政治的ジャンルを発見するために,スケーラブルな自動視覚認識パイプラインを導入する。
このパイプラインは、ソーシャルネットワークからミーム画像を取り込み、コンピュータビジョンベースの技術を用いて局所的な特徴を抽出し、ミームを関連するジャンルに整理することができる。
提案手法は, 視覚的に多彩な画像が共通のスタイル的要素を共有できるような, 新たなミームジャンルを発見できることを示す。
- 参考スコア(独自算出の注目度): 7.3228874258537875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Forms of human communication are not static -- we expect some evolution in
the way information is conveyed over time because of advances in technology.
One example of this phenomenon is the image-based meme, which has emerged as a
dominant form of political messaging in the past decade. While originally used
to spread jokes on social media, memes are now having an outsized impact on
public perception of world events. A significant challenge in automatic meme
analysis has been the development of a strategy to match memes from within a
single genre when the appearances of the images vary. Such variation is
especially common in memes exhibiting mimicry. For example, when voters perform
a common hand gesture to signal their support for a candidate. In this paper we
introduce a scalable automated visual recognition pipeline for discovering
political meme genres of diverse appearance. This pipeline can ingest meme
images from a social network, apply computer vision-based techniques to extract
local features and index new images into a database, and then organize the
memes into related genres. To validate this approach, we perform a large case
study on the 2019 Indonesian Presidential Election using a new dataset of over
two million images collected from Twitter and Instagram. Results show that this
approach can discover new meme genres with visually diverse images that share
common stylistic elements, paving the way forward for further work in semantic
analysis and content attribution.
- Abstract(参考訳): 人間のコミュニケーションの形式は静的ではない。テクノロジーの進歩により、情報伝達の方法が進化することを期待している。
この現象の例として、画像ベースのミームがあり、過去10年間に政治メッセージの主流として登場してきた。
もともとソーシャルメディアでジョークを広めるために使われたが、今やミームは世界の出来事に対する大衆の認識に大きな影響を与えている。
自動ミーム分析における重要な課題は、画像の外観が異なる場合、単一のジャンル内からミームをマッチングする戦略を開発することである。
このようなバリエーションは、特に模倣を示すミームで一般的である。
例えば、有権者が共通の手振りをして候補者への支持を示す場合。
本稿では,多様な外見の政治的ジャンルを発見するために,スケーラブルな自動視覚認識パイプラインを提案する。
このパイプラインは、ソーシャルネットワークからミーム画像を取り込み、ローカルな特徴を抽出するためにコンピュータビジョンベースの技術を適用し、データベースに新しいイメージをインデックスし、ミームを関連するジャンルに整理することができる。
このアプローチを検証するために、私たちは、twitterとinstagramから収集された200万以上の画像の新しいデータセットを使用して、2019年のインドネシア大統領選挙に関する大規模なケーススタディを行っています。
提案手法は, 視覚的に多様な画像が共通なスタイル的要素を共有し, セマンティック分析やコンテンツ属性のさらなる研究に向けての道のりをたどることが示唆された。
関連論文リスト
- XMeCap: Meme Caption Generation with Sub-Image Adaptability [53.2509590113364]
社会的な意味や文化的な詳細に深く根ざした噂は、機械にとってユニークな挑戦である。
我々は、教師付き微調整と強化学習を採用するtextscXMeCapフレームワークを紹介した。
textscXMeCapは、シングルイメージのミームの平均評価スコアが75.85で、マルチイメージのミームは66.32で、それぞれ3.71%と4.82%で最高のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-07-24T10:51:46Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - Contextualizing Internet Memes Across Social Media Platforms [8.22187358555391]
我々は,知識のセマンティックリポジトリ,すなわち知識グラフを用いて,インターネットミームを文脈化できるかどうかを検討する。
RedditとDiscordという2つのソーシャルメディアプラットフォームから何千もの潜在的なインターネットミーム投稿を収集し、抽出-変換-ロード手順を開発し、候補ミーム投稿とデータレイクを作成します。
視覚変換器をベースとした類似性を利用して、これらの候補をIMKGでカタログ化されたミーム(インターネットミームの知識グラフ)と比較する。
論文 参考訳(メタデータ) (2023-11-18T20:18:18Z) - A Template Is All You Meme [83.05919383106715]
我々は,54,000枚以上の画像からなる www.knowyourme.com で発見されたミームと情報の知識ベースをリリースする。
我々は、ミームテンプレートが、以前のアプローチから欠落したコンテキストでモデルを注入するのに使えると仮定する。
論文 参考訳(メタデータ) (2023-11-11T19:38:14Z) - Detecting and Understanding Harmful Memes: A Survey [48.135415967633676]
我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
論文 参考訳(メタデータ) (2022-05-09T13:43:27Z) - Detection of Propaganda Techniques in Visuo-Lingual Metaphor in Memes [7.538482310185133]
ソーシャルメディア革命は、インターネットミームと呼ばれるソーシャルメディアプラットフォームにユニークな現象をもたらした。
本稿では,近年インターネットミームでよく見られるプロパガンダを扱う。
インターネットミームにおけるプロパガンダを検出するために,マルチモーダル深層学習融合システムを提案する。
論文 参考訳(メタデータ) (2022-05-03T18:33:27Z) - Do Images really do the Talking? Analysing the significance of Images in
Tamil Troll meme classification [0.16863755729554888]
我々は,ミームの分類における画像の視覚的特徴の重要性を探究する。
画像とテキストに基づいて,ミームをトロール・ノントロールのミームとして組み込もうとする。
論文 参考訳(メタデータ) (2021-08-09T09:04:42Z) - Memes in the Wild: Assessing the Generalizability of the Hateful Memes
Challenge Dataset [47.65948529524281]
Pinterestからヘイトフルで非ヘイトフルなミームを収集して、Facebookデータセットで事前トレーニングされたモデルで、サンプル外のパフォーマンスを評価します。
1) キャプションをOCRで抽出しなければならない,2) ミームは従来のミームよりも多様であり, 会話のスクリーンショットやテキストをプレーンな背景に表示する,という2つの重要な側面がある。
論文 参考訳(メタデータ) (2021-07-09T09:04:05Z) - Entropy and complexity unveil the landscape of memes evolution [105.59074436693487]
われわれは、2011年から2020年までの10年間で、Redditから200万のビジュアルミームの進化を研究した。
ミームは新たなインターネットメタ言語の一部であるという仮説を支持する。
論文 参考訳(メタデータ) (2021-05-26T07:41:09Z) - Multimodal Learning for Hateful Memes Detection [6.6881085567421605]
本稿では,画像キャプション処理をミーム検出プロセスに組み込む新しい手法を提案する。
本モデルは,Hateful Memes Detection Challengeにおける有望な結果を得る。
論文 参考訳(メタデータ) (2020-11-25T16:49:15Z) - Semantic Search of Memes on Twitter [0.8701566919381222]
本稿では,画像を自動的にミームとして分類するいくつかの手法を提案し,比較する。
チリのTwitterユーザから収集した大量のミームを用いて,提案手法を実験的に評価した。
論文 参考訳(メタデータ) (2020-02-04T18:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。