論文の概要: Mapping Visual Themes among Authentic and Coordinated Memes
- arxiv url: http://arxiv.org/abs/2206.02306v1
- Date: Mon, 6 Jun 2022 01:26:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 17:29:08.785035
- Title: Mapping Visual Themes among Authentic and Coordinated Memes
- Title(参考訳): 認証ミームとコーディネートミーム間の視覚テーマのマッピング
- Authors: Keng-Chi Chang
- Abstract要約: ミームの低次元視覚埋め込みを学習し、K平均を協調的にクラスタリングし、協調するミームに適用する。
本物のミームとコーディネートされたミームは、多くの視覚的テーマを共有しているが、度合いは様々である。
低次元埋め込みにおける単純なロジスティック回帰は、IRAミームとRedditミームを区別し、サンプル外テストの精度は0.84である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: What distinguishes authentic memes from those created by state actors? I
utilize a self-supervised vision model, DeepCluster (Caron et al. 2019), to
learn low-dimensional visual embeddings of memes and apply K-means to jointly
cluster authentic and coordinated memes without additional inputs. I find that
authentic and coordinated memes share a large fraction of visual themes but
with varying degrees. Coordinated memes from Russian IRA accounts promote more
themes around celebrities, quotes, screenshots, military, and gender. Authentic
Reddit memes include more themes with comics and movie characters. A simple
logistic regression on the low-dimensional embeddings can discern IRA memes
from Reddit memes with an out-sample testing accuracy of 0.84.
- Abstract(参考訳): 本物のミームと州立俳優が作ったミームの区別は?
私は、DeepCluster (Caron et al. 2019) という自己監督型視覚モデルを使って、ミームの低次元視覚埋め込みを学習し、K平均を、追加の入力なしで協調的にクラスタリングする。
本物のミームとコーディネートされたミームは、多くの視覚的テーマを共有しています。
ロシアのIRAアカウントのコーディネートミームは、有名人、引用文、スクリーンショット、軍、性別に関するテーマを増やす。
redditの本物のミームには、コミックや映画のキャラクターのテーマが含まれている。
低次元埋め込みにおける単純なロジスティック回帰は、IRAミームとRedditミームを区別し、サンプル外テスト精度は0.84である。
関連論文リスト
- XMeCap: Meme Caption Generation with Sub-Image Adaptability [53.2509590113364]
社会的な意味や文化的な詳細に深く根ざした噂は、機械にとってユニークな挑戦である。
我々は、教師付き微調整と強化学習を採用するtextscXMeCapフレームワークを紹介した。
textscXMeCapは、シングルイメージのミームの平均評価スコアが75.85で、マルチイメージのミームは66.32で、それぞれ3.71%と4.82%で最高のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-07-24T10:51:46Z) - What Makes a Meme a Meme? Identifying Memes for Memetics-Aware Dataset Creation [0.9217021281095907]
マルチモーダルインターネットミームは現在、オンライン談話におけるユビキタスなフィクスチャとなっている。
ミームはミームを模倣してシンボルに変換する過程である。
我々は,ミームと非ミームコンテンツとを識別するミーム識別プロトコルを開発した。
論文 参考訳(メタデータ) (2024-07-16T15:48:36Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - A Template Is All You Meme [83.05919383106715]
我々は,54,000枚以上の画像からなる www.knowyourme.com で発見されたミームと情報の知識ベースをリリースする。
我々は、ミームテンプレートが、以前のアプローチから欠落したコンテキストでモデルを注入するのに使えると仮定する。
論文 参考訳(メタデータ) (2023-11-11T19:38:14Z) - Detecting and Understanding Harmful Memes: A Survey [48.135415967633676]
我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
論文 参考訳(メタデータ) (2022-05-09T13:43:27Z) - Detecting Harmful Memes and Their Targets [27.25262711136056]
COVID-19に関連する3,544のミームを含む最初のベンチマークデータセットであるHarMemeを紹介します。
第1段階では、ミームを非常に有害、部分的に有害、または無害とラベル付けし、第2段階では、有害ミームが示す標的の種類をさらにアノテートした。
10の単一モーダルモデルとマルチモーダルモデルによる評価結果は、両方のタスクにマルチモーダル信号を使用することの重要性を強調している。
論文 参考訳(メタデータ) (2021-09-24T17:11:42Z) - Memes in the Wild: Assessing the Generalizability of the Hateful Memes
Challenge Dataset [47.65948529524281]
Pinterestからヘイトフルで非ヘイトフルなミームを収集して、Facebookデータセットで事前トレーニングされたモデルで、サンプル外のパフォーマンスを評価します。
1) キャプションをOCRで抽出しなければならない,2) ミームは従来のミームよりも多様であり, 会話のスクリーンショットやテキストをプレーンな背景に表示する,という2つの重要な側面がある。
論文 参考訳(メタデータ) (2021-07-09T09:04:05Z) - Entropy and complexity unveil the landscape of memes evolution [105.59074436693487]
われわれは、2011年から2020年までの10年間で、Redditから200万のビジュアルミームの進化を研究した。
ミームは新たなインターネットメタ言語の一部であるという仮説を支持する。
論文 参考訳(メタデータ) (2021-05-26T07:41:09Z) - Dissecting the Meme Magic: Understanding Indicators of Virality in Image
Memes [11.491215688828518]
非常にバイラルなミームは、クローズアップスケールを使用し、キャラクターを包含し、ポジティブな感情やネガティブな感情を含む傾向にある。
一方、明瞭な主題を提示しない画像ミームは、視聴者が注意を向けたり、長いテキストを含む画像ミームは、ユーザーによって再共有されがちである。
われわれは機械学習モデルを訓練し、バイラルになりそうな画像ミームと、再共有される可能性が低い画像ミームを区別する。
論文 参考訳(メタデータ) (2021-01-16T22:36:51Z) - Multimodal Learning for Hateful Memes Detection [6.6881085567421605]
本稿では,画像キャプション処理をミーム検出プロセスに組み込む新しい手法を提案する。
本モデルは,Hateful Memes Detection Challengeにおける有望な結果を得る。
論文 参考訳(メタデータ) (2020-11-25T16:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。