論文の概要: Misogynistic Meme Detection using Early Fusion Model with Graph Network
- arxiv url: http://arxiv.org/abs/2203.16781v1
- Date: Thu, 31 Mar 2022 03:45:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 15:13:51.740522
- Title: Misogynistic Meme Detection using Early Fusion Model with Graph Network
- Title(参考訳): グラフネットワークを用いた初期核融合モデルによる相似ミーム検出
- Authors: Harshvardhan Srivastava
- Abstract要約: 擬似的ミームの予測と同定のための早期融合モデルを提案する。
モデルは、そのテキストをターゲットベクトルで書き起こして入力ミーム画像として受信する。
我々のモデルは、他の競技チームとSubTask-AとSubTask-Bで競合する結果を得た。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent years , there has been an upsurge in a new form of entertainment
medium called memes. These memes although seemingly innocuous have transcended
onto the boundary of online harassment against women and created an unwanted
bias against them . To help alleviate this problem , we propose an early fusion
model for prediction and identification of misogynistic memes and its type in
this paper for which we participated in SemEval-2022 Task 5 . The model
receives as input meme image with its text transcription with a target vector.
Given that a key challenge with this task is the combination of different
modalities to predict misogyny, our model relies on pretrained contextual
representations from different state-of-the-art transformer-based language
models and pretrained image pretrained models to get an effective image
representation. Our model achieved competitive results on both SubTask-A and
SubTask-B with the other competition teams and significantly outperforms the
baselines.
- Abstract(参考訳): 近年,ミームと呼ばれる新しいエンターテイメントメディアが急増している。
これらのミームは一見無害に見えるものの、女性に対するオンラインハラスメントの境界を超え、彼らに対する望ましくない偏見を生み出した。
本稿では,この問題を緩和するために,SemEval-2022 Task 5 に参画した擬似的ミームとそのタイプを予測・同定するための早期融合モデルを提案する。
モデルは、対象ベクトルによるテキスト転写を伴う入力ミーム画像として受信する。
この課題の重要な課題は、ミソジニーを予測するための異なるモダリティの組み合わせであることを考えると、このモデルは、さまざまな最先端トランスフォーマーベースの言語モデルと、効果的な画像表現を得るために訓練済みイメージプリトレーニングモデルからの事前学習されたコンテキスト表現に依存している。
我々のモデルは、他の競争チームとSubTask-AとSubTask-Bの双方で競合し、ベースラインを大幅に上回っている。
関連論文リスト
- Word-Level Explanations for Analyzing Bias in Text-to-Image Models [72.71184730702086]
Text-to-image(T2I)モデルは、人種や性別に基づいて少数派を過小評価する画像を生成することができる。
本稿では,入力プロンプトのどの単語が生成画像のバイアスの原因となるかを検討する。
論文 参考訳(メタデータ) (2023-06-03T21:39:07Z) - UPB at SemEval-2022 Task 5: Enhancing UNITER with Image Sentiment and
Graph Convolutional Networks for Multimedia Automatic Misogyny Identification [0.3437656066916039]
本稿ではSemEval-2022 Task 5: MAMI - Multimedia Automatic Misogyny Identificationについて述べる。
私たちのベストモデルは、サブタスクAで71.4%、サブタスクBで67.3%のF1スコアに達し、トップボードの上位3分の1にチームを配置します。
論文 参考訳(メタデータ) (2022-05-29T21:12:36Z) - RubCSG at SemEval-2022 Task 5: Ensemble learning for identifying
misogynous MEMEs [12.979213013465882]
本研究は,SemEval 2022 Task 5: MAMI-Multimedia Automatic Misogyny Identificationのために開発された,様々なユニモーダルおよびバイモーダルモデルアーキテクチャに基づくアンサンブルシステムを提案する。
論文 参考訳(メタデータ) (2022-04-08T09:27:28Z) - On Explaining Multimodal Hateful Meme Detection Models [4.509263496823139]
これらのモデルがマルチモーダルでデロゲーションまたはスラー参照をキャプチャできるかどうかは不明である。
その結果,画像のモダリティは,憎しみに満ちたミーム分類タスクに寄与することが判明した。
誤差分析の結果,視覚言語モデルではバイアスが得られ,偽陽性の予測が得られた。
論文 参考訳(メタデータ) (2022-04-04T15:35:41Z) - DALL-Eval: Probing the Reasoning Skills and Social Biases of
Text-to-Image Generation Models [73.12069620086311]
テキスト・ツー・イメージ・モデルの視覚的推論能力と社会的バイアスについて検討する。
まず,物体認識,物体カウント,空間的関係理解という3つの視覚的推論スキルを計測する。
第2に、生成した画像の性別/肌の色調分布を測定することにより、性別と肌のトーンバイアスを評価する。
論文 参考訳(メタデータ) (2022-02-08T18:36:52Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Caption Enriched Samples for Improving Hateful Memes Detection [78.5136090997431]
憎しみのあるミームの挑戦は、ミームが憎悪であるか否かを決定するのが困難であることを示している。
ユニモーダル言語モデルとマルチモーダル視覚言語モデルの両方が人間のパフォーマンスレベルに到達できない。
論文 参考訳(メタデータ) (2021-09-22T10:57:51Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Progressive and Aligned Pose Attention Transfer for Person Image
Generation [59.87492938953545]
本稿では,ある人物のポーズを対象のポーズに移す,新たなポーズ移動のための生成的広告ネットワークを提案する。
Pose-Attentional Transfer Block (PATB) と Aligned Pose-Attentional Transfer Bloc (APATB) の2種類のブロックを使用します。
Market-1501およびDeepFashionデータセットにおけるモデルの有効性を定量的および定性測定を用いて検証する。
論文 参考訳(メタデータ) (2021-03-22T07:24:57Z) - Detecting Hate Speech in Multi-modal Memes [14.036769355498546]
我々は,マルチモーダルミームにおけるヘイトスピーチ検出に着目し,ミームが興味深いマルチモーダル融合問題を引き起こす。
Facebook Meme Challenge citekiela 2020hatefulは、ミームが憎悪であるかどうかを予測するバイナリ分類問題を解決することを目的としている。
論文 参考訳(メタデータ) (2020-12-29T18:30:00Z) - YNU-HPCC at SemEval-2020 Task 8: Using a Parallel-Channel Model for
Memotion Analysis [11.801902984731129]
本稿では,ミーム内のテキスト情報と視覚情報を処理する並列チャネルモデルを提案する。
ミームを識別・分類する共有タスクでは、ソーシャルメディア上での言語行動に応じてデータセットを前処理する。
次に、変換器からの双方向表現(BERT)を適応・微調整し、画像から特徴を抽出するために2種類の畳み込みニューラルネットワークモデル(CNN)を用いた。
論文 参考訳(メタデータ) (2020-07-28T03:20:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。