論文の概要: Misogynistic Meme Detection using Early Fusion Model with Graph Network
- arxiv url: http://arxiv.org/abs/2203.16781v1
- Date: Thu, 31 Mar 2022 03:45:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 15:13:51.740522
- Title: Misogynistic Meme Detection using Early Fusion Model with Graph Network
- Title(参考訳): グラフネットワークを用いた初期核融合モデルによる相似ミーム検出
- Authors: Harshvardhan Srivastava
- Abstract要約: 擬似的ミームの予測と同定のための早期融合モデルを提案する。
モデルは、そのテキストをターゲットベクトルで書き起こして入力ミーム画像として受信する。
我々のモデルは、他の競技チームとSubTask-AとSubTask-Bで競合する結果を得た。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent years , there has been an upsurge in a new form of entertainment
medium called memes. These memes although seemingly innocuous have transcended
onto the boundary of online harassment against women and created an unwanted
bias against them . To help alleviate this problem , we propose an early fusion
model for prediction and identification of misogynistic memes and its type in
this paper for which we participated in SemEval-2022 Task 5 . The model
receives as input meme image with its text transcription with a target vector.
Given that a key challenge with this task is the combination of different
modalities to predict misogyny, our model relies on pretrained contextual
representations from different state-of-the-art transformer-based language
models and pretrained image pretrained models to get an effective image
representation. Our model achieved competitive results on both SubTask-A and
SubTask-B with the other competition teams and significantly outperforms the
baselines.
- Abstract(参考訳): 近年,ミームと呼ばれる新しいエンターテイメントメディアが急増している。
これらのミームは一見無害に見えるものの、女性に対するオンラインハラスメントの境界を超え、彼らに対する望ましくない偏見を生み出した。
本稿では,この問題を緩和するために,SemEval-2022 Task 5 に参画した擬似的ミームとそのタイプを予測・同定するための早期融合モデルを提案する。
モデルは、対象ベクトルによるテキスト転写を伴う入力ミーム画像として受信する。
この課題の重要な課題は、ミソジニーを予測するための異なるモダリティの組み合わせであることを考えると、このモデルは、さまざまな最先端トランスフォーマーベースの言語モデルと、効果的な画像表現を得るために訓練済みイメージプリトレーニングモデルからの事前学習されたコンテキスト表現に依存している。
我々のモデルは、他の競争チームとSubTask-AとSubTask-Bの双方で競合し、ベースラインを大幅に上回っている。
関連論文リスト
- Image Generation from Image Captioning -- Invertible Approach [0.0]
画像とテキストの埋め込みを1対1でマッピングする非可逆モデルを訓練する。
インバーチブルモデルが1つのタスクで効率的に訓練されると、画像キャプションは、同じモデルが与えられたテキストに対して新しい画像を生成することができる。
論文 参考訳(メタデータ) (2024-10-26T13:02:58Z) - MMAR: Towards Lossless Multi-Modal Auto-Regressive Probabilistic Modeling [64.09238330331195]
本稿では,MMAR(Multi-Modal Auto-Regressive)確率モデルフレームワークを提案する。
離散化の手法とは異なり、MMARは情報損失を避けるために連続的に評価された画像トークンを取り入れる。
MMARは他のジョイントマルチモーダルモデルよりもはるかに優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-14T17:57:18Z) - Information Theoretic Text-to-Image Alignment [49.396917351264655]
本稿では,ステア画像生成のための情報理論アライメント尺度を用いた新しい手法を提案する。
提案手法は最先端の手法よりも優れているが,MIを推定するためには事前学習されたデノナイジングネットワークを必要としない。
論文 参考訳(メタデータ) (2024-05-31T12:20:02Z) - Word-Level Explanations for Analyzing Bias in Text-to-Image Models [72.71184730702086]
Text-to-image(T2I)モデルは、人種や性別に基づいて少数派を過小評価する画像を生成することができる。
本稿では,入力プロンプトのどの単語が生成画像のバイアスの原因となるかを検討する。
論文 参考訳(メタデータ) (2023-06-03T21:39:07Z) - UPB at SemEval-2022 Task 5: Enhancing UNITER with Image Sentiment and
Graph Convolutional Networks for Multimedia Automatic Misogyny Identification [0.3437656066916039]
本稿ではSemEval-2022 Task 5: MAMI - Multimedia Automatic Misogyny Identificationについて述べる。
私たちのベストモデルは、サブタスクAで71.4%、サブタスクBで67.3%のF1スコアに達し、トップボードの上位3分の1にチームを配置します。
論文 参考訳(メタデータ) (2022-05-29T21:12:36Z) - On Explaining Multimodal Hateful Meme Detection Models [4.509263496823139]
これらのモデルがマルチモーダルでデロゲーションまたはスラー参照をキャプチャできるかどうかは不明である。
その結果,画像のモダリティは,憎しみに満ちたミーム分類タスクに寄与することが判明した。
誤差分析の結果,視覚言語モデルではバイアスが得られ,偽陽性の予測が得られた。
論文 参考訳(メタデータ) (2022-04-04T15:35:41Z) - DALL-Eval: Probing the Reasoning Skills and Social Biases of
Text-to-Image Generation Models [73.12069620086311]
テキスト・ツー・イメージ・モデルの視覚的推論能力と社会的バイアスについて検討する。
まず,物体認識,物体カウント,空間的関係理解という3つの視覚的推論スキルを計測する。
第2に、生成した画像の性別/肌の色調分布を測定することにより、性別と肌のトーンバイアスを評価する。
論文 参考訳(メタデータ) (2022-02-08T18:36:52Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Caption Enriched Samples for Improving Hateful Memes Detection [78.5136090997431]
憎しみのあるミームの挑戦は、ミームが憎悪であるか否かを決定するのが困難であることを示している。
ユニモーダル言語モデルとマルチモーダル視覚言語モデルの両方が人間のパフォーマンスレベルに到達できない。
論文 参考訳(メタデータ) (2021-09-22T10:57:51Z) - Detecting Hate Speech in Multi-modal Memes [14.036769355498546]
我々は,マルチモーダルミームにおけるヘイトスピーチ検出に着目し,ミームが興味深いマルチモーダル融合問題を引き起こす。
Facebook Meme Challenge citekiela 2020hatefulは、ミームが憎悪であるかどうかを予測するバイナリ分類問題を解決することを目的としている。
論文 参考訳(メタデータ) (2020-12-29T18:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。