論文の概要: Multi-modal application: Image Memes Generation
- arxiv url: http://arxiv.org/abs/2112.01651v1
- Date: Fri, 3 Dec 2021 00:17:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 05:01:18.442022
- Title: Multi-modal application: Image Memes Generation
- Title(参考訳): マルチモーダルアプリケーション:画像ミーム生成
- Authors: Zhiyuan Liu, Chuanzheng Sun, Yuxin Jiang, Shiqi Jiang, Mei Ming
- Abstract要約: エンド・ツー・エンドのエンコーダ・デコーダ・アーキテクチャ・ミーム・ジェネレータを提案する。
インターネットミームは一般的にイメージの形をとり、ミームテンプレート(画像)とキャプション(自然言語文)を組み合わせて作成される。
- 参考スコア(独自算出の注目度): 13.043370069398916
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Meme is an interesting word. Internet memes offer unique insights into the
changes in our perception of the world, the media and our own lives. If you
surf the Internet for long enough, you will see it somewhere on the Internet.
With the rise of social media platforms and convenient image dissemination,
Image Meme has gained fame. Image memes have become a kind of pop culture and
they play an important role in communication over social media, blogs, and open
messages. With the development of artificial intelligence and the widespread
use of deep learning, Natural Language Processing (NLP) and Computer Vision
(CV) can also be used to solve more problems in life, including meme
generation. An Internet meme commonly takes the form of an image and is created
by combining a meme template (image) and a caption (natural language sentence).
In our project, we propose an end-to-end encoder-decoder architecture meme
generator. For a given input sentence, we use the Meme template selection model
to determine the emotion it expresses and select the image template. Then
generate captions and memes through to the meme caption generator. Code and
models are available at github
- Abstract(参考訳): Memeは面白い言葉だ。
インターネットミームは、世界、メディア、そして私たちの生活に対する私たちの認識の変化に関するユニークな洞察を提供する。
インターネットを長くサーフィンすれば、インターネットのどこかでそれを見ることができます。
ソーシャルメディアのプラットフォームと便利な画像の普及により、Image Memeは有名になった。
画像ミームはポップカルチャーの一種となり、ソーシャルメディア、ブログ、オープンメッセージ上でのコミュニケーションにおいて重要な役割を果たしている。
人工知能の開発とディープラーニングの広範な利用により、自然言語処理(nlp)とコンピュータビジョン(cv)は、ミーム生成を含む生活におけるより多くの問題を解決するためにも利用できる。
インターネットミームは一般的にイメージの形をとり、ミームテンプレート(画像)とキャプション(自然言語文)を組み合わせて作成される。
本稿では,エンド・ツー・エンドのエンコーダ・デコーダアーキテクチャであるmeme generatorを提案する。
与えられた入力文に対して、私たちはMemeテンプレート選択モデルを使用して、表現する感情を決定し、画像テンプレートを選択する。
そして、ミームキャプションジェネレータにキャプションとミームを生成する。
コードとモデルはgithubで利用可能
関連論文リスト
- XMeCap: Meme Caption Generation with Sub-Image Adaptability [53.2509590113364]
社会的な意味や文化的な詳細に深く根ざした噂は、機械にとってユニークな挑戦である。
我々は、教師付き微調整と強化学習を採用するtextscXMeCapフレームワークを紹介した。
textscXMeCapは、シングルイメージのミームの平均評価スコアが75.85で、マルチイメージのミームは66.32で、それぞれ3.71%と4.82%で最高のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-07-24T10:51:46Z) - What Makes a Meme a Meme? Identifying Memes for Memetics-Aware Dataset Creation [0.9217021281095907]
マルチモーダルインターネットミームは現在、オンライン談話におけるユビキタスなフィクスチャとなっている。
ミームはミームを模倣してシンボルに変換する過程である。
我々は,ミームと非ミームコンテンツとを識別するミーム識別プロトコルを開発した。
論文 参考訳(メタデータ) (2024-07-16T15:48:36Z) - MemeCraft: Contextual and Stance-Driven Multimodal Meme Generation [9.048389283002294]
我々は,大規模言語モデル(LLM)と視覚言語モデル(VLM)を活用して,特定の社会運動を提唱するミームを生成する,革新的なミームジェネレータであるMemeCraftを紹介した。
MemeCraftはエンドツーエンドのパイプラインを提供し、ユーザプロンプトを手作業で介入することなく、魅力的なマルチモーダルミームに変換する。
論文 参考訳(メタデータ) (2024-02-24T06:14:34Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - Contextualizing Internet Memes Across Social Media Platforms [8.22187358555391]
我々は,知識のセマンティックリポジトリ,すなわち知識グラフを用いて,インターネットミームを文脈化できるかどうかを検討する。
RedditとDiscordという2つのソーシャルメディアプラットフォームから何千もの潜在的なインターネットミーム投稿を収集し、抽出-変換-ロード手順を開発し、候補ミーム投稿とデータレイクを作成します。
視覚変換器をベースとした類似性を利用して、これらの候補をIMKGでカタログ化されたミーム(インターネットミームの知識グラフ)と比較する。
論文 参考訳(メタデータ) (2023-11-18T20:18:18Z) - A Template Is All You Meme [83.05919383106715]
我々は,54,000枚以上の画像からなる www.knowyourme.com で発見されたミームと情報の知識ベースをリリースする。
我々は、ミームテンプレートが、以前のアプローチから欠落したコンテキストでモデルを注入するのに使えると仮定する。
論文 参考訳(メタデータ) (2023-11-11T19:38:14Z) - MemeCap: A Dataset for Captioning and Interpreting Memes [11.188548484391978]
我々はミームキャプションのタスクを提示し、新しいデータセットMemeCapをリリースする。
我々のデータセットには、6.3Kミームと、ミーム、ミームキャプション、リテラルイメージキャプション、ビジュアルメタファを含む投稿のタイトルが含まれています。
論文 参考訳(メタデータ) (2023-05-23T05:41:18Z) - Detecting and Understanding Harmful Memes: A Survey [48.135415967633676]
我々は有害なミームに焦点を当てた総合的な調査を行っている。
興味深い発見の1つは、多くの有害ミームが実際には研究されていないことである。
別の観察では、ミームは異なる言語で再パッケージ化することでグローバルに伝播し、多言語化することもできる。
論文 参考訳(メタデータ) (2022-05-09T13:43:27Z) - Memes in the Wild: Assessing the Generalizability of the Hateful Memes
Challenge Dataset [47.65948529524281]
Pinterestからヘイトフルで非ヘイトフルなミームを収集して、Facebookデータセットで事前トレーニングされたモデルで、サンプル外のパフォーマンスを評価します。
1) キャプションをOCRで抽出しなければならない,2) ミームは従来のミームよりも多様であり, 会話のスクリーンショットやテキストをプレーンな背景に表示する,という2つの重要な側面がある。
論文 参考訳(メタデータ) (2021-07-09T09:04:05Z) - Entropy and complexity unveil the landscape of memes evolution [105.59074436693487]
われわれは、2011年から2020年までの10年間で、Redditから200万のビジュアルミームの進化を研究した。
ミームは新たなインターネットメタ言語の一部であるという仮説を支持する。
論文 参考訳(メタデータ) (2021-05-26T07:41:09Z) - memeBot: Towards Automatic Image Meme Generation [24.37035046107127]
モデルはミームキャプションとミームテンプレートイメージの依存関係を学習し、新しいミームを生成する。
Twitterデータを用いた実験では、オンラインソーシャルインタラクションにおける文のミーム生成におけるモデルの有効性が示されている。
論文 参考訳(メタデータ) (2020-04-30T03:48:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。