論文の概要: Detecting Offensive Memes with Social Biases in Singapore Context Using Multimodal Large Language Models
- arxiv url: http://arxiv.org/abs/2502.18101v1
- Date: Tue, 25 Feb 2025 11:15:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:23:15.601889
- Title: Detecting Offensive Memes with Social Biases in Singapore Context Using Multimodal Large Language Models
- Title(参考訳): マルチモーダル大言語モデルを用いたシンガポールにおける社会バイアスによる攻撃的ミームの検出
- Authors: Cao Yuxuan, Wu Jiayang, Alistair Cheong Liang Chuen, Bryan Shan Guanrong, Theodore Lee Chong Jen, Sherman Chann Zhi Shen,
- Abstract要約: 我々はシンガポールの文脈で攻撃的ミームを分類するために、GPT-4Vでラベル付けされた112KミームをVLMの微調整のためにキュレートする。
我々は,データセット上での微調整VLMの有効性を示し,OCR,翻訳,7ビリオンパラメータクラスVLMを含むパイプラインを提案する。
我々のソリューションは、ホールドアウトテストセットで80.62%の精度と0.8192のAUROCに達し、人間がオンラインでコンテンツをモデレートするのに大いに役立ちます。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Traditional online content moderation systems struggle to classify modern multimodal means of communication, such as memes, a highly nuanced and information-dense medium. This task is especially hard in a culturally diverse society like Singapore, where low-resource languages are used and extensive knowledge on local context is needed to interpret online content. We curate a large collection of 112K memes labeled by GPT-4V for fine-tuning a VLM to classify offensive memes in Singapore context. We show the effectiveness of fine-tuned VLMs on our dataset, and propose a pipeline containing OCR, translation and a 7-billion parameter-class VLM. Our solutions reach 80.62% accuracy and 0.8192 AUROC on a held-out test set, and can greatly aid human in moderating online contents. The dataset, code, and model weights will be open-sourced at https://github.com/aliencaocao/vlm-for-memes-aisg.
- Abstract(参考訳): 従来のオンラインコンテンツモデレーションシステムは、高度にニュアンスで情報密度の高い媒体であるミームのような、現代のマルチモーダルなコミュニケーション手段の分類に苦慮している。
シンガポールのような文化的に多様な社会では、低リソースの言語が使われ、オンラインコンテンツを解釈するためには、ローカルな文脈に関する広範な知識が必要である。
我々はシンガポールの文脈で攻撃的ミームを分類するためにVLMを微調整するために、GPT-4Vでラベル付けされた112Kミームの大規模なコレクションをキュレートする。
我々は,データセット上での微調整VLMの有効性を示し,OCR,翻訳,7ビリオンパラメータクラスVLMを含むパイプラインを提案する。
我々のソリューションは、ホールドアウトテストセットで80.62%の精度と0.8192のAUROCに達し、人間がオンラインでコンテンツをモデレートするのに大いに役立ちます。
データセット、コード、モデルウェイトはhttps://github.com/aliencaocao/vlm-for-memes-aisgでオープンソース化される。
関連論文リスト
- Multi3Hate: Multimodal, Multilingual, and Multicultural Hate Speech Detection with Vision-Language Models [11.82100047858478]
マルチモーダルおよびマルチ言語並列ヘイトスピーチデータセットを作成し、マルチ3Hateと呼ばれるマルチカルチャーアノテータセットで注釈付けする。
5つの言語(英語、ドイツ語、スペイン語、ヒンディー語、マンダリン)にまたがる300のミームサンプルを含んでいる。
文化的背景がデータセットにおけるマルチモーダルヘイトスピーチのアノテーションに大きく影響することを示し、各国間の平均的なペアワイド合意は、ランダムに選択されたアノテータグループよりもわずか74%低い。
論文 参考訳(メタデータ) (2024-11-06T13:06:43Z) - MURI: High-Quality Instruction Tuning Datasets for Low-Resource Languages via Reverse Instructions [54.08017526771947]
MURI(Multilingual Reverse Instructions)は低リソース言語のための高品質な命令チューニングデータセットを生成する。
MURIは、低リソース言語における既存の人文テキストから命令出力ペアを生成する。
私たちのデータセットであるMURI-ITには200言語にまたがる200万以上の命令出力ペアが含まれています。
論文 参考訳(メタデータ) (2024-09-19T17:59:20Z) - OSPC: Detecting Harmful Memes with Large Language Model as a Catalyst [23.806625629458946]
本研究では,シンガポールの多言語・多言語的文脈において,有害なミームを検出する新しいアプローチを提案する。
我々は画像キャプション、光学文字認識(OCR)、Large Language Model(LLM)分析を統合した。
当社のフレームワークは,AIシンガポール主催のオンライン安全賞コンテストにおいて,トップ1を達成している。
論文 参考訳(メタデータ) (2024-06-14T07:28:02Z) - mOSCAR: A Large-scale Multilingual and Multimodal Document-level Corpus [52.83121058429025]
ウェブからクロールされた最初の大規模多言語およびマルチモーダル文書コーパスであるmOSCARを紹介する。
163の言語、315万のドキュメント、214Bトークン、1.2Bイメージをカバーしている。
さまざまなマルチリンガル画像テキストタスクとベンチマークで、数ショットの学習パフォーマンスが大幅に向上している。
論文 参考訳(メタデータ) (2024-06-13T00:13:32Z) - ArMeme: Propagandistic Content in Arabic Memes [9.48177009736915]
我々は,プロパガンダ的コンテンツの手動アノテーションを用いたアラビア・ミーム・データセットを開発した。
我々は,その検出のための計算ツールの開発を目的とした包括的解析を行う。
論文 参考訳(メタデータ) (2024-06-06T09:56:49Z) - BanglaAbuseMeme: A Dataset for Bengali Abusive Meme Classification [11.04522597948877]
個人やコミュニティを悪用する単純で効果的な方法はミームを作ることである。
このような有害な要素は普及しており、オンラインの安全を脅かしている。
乱用ミームを検知・フラグする効率的なモデルを開発する必要がある。
論文 参考訳(メタデータ) (2023-10-18T07:10:47Z) - NusaWrites: Constructing High-Quality Corpora for Underrepresented and
Extremely Low-Resource Languages [54.808217147579036]
インドネシアの地方言語について事例研究を行う。
データセット構築におけるオンラインスクラップ,人文翻訳,および母語話者による段落作成の有効性を比較した。
本研究は,母語話者による段落作成によって生成されたデータセットが,語彙的多様性と文化的内容の点で優れた品質を示すことを示す。
論文 参考訳(メタデータ) (2023-09-19T14:42:33Z) - Chain-of-Dictionary Prompting Elicits Translation in Large Language Models [100.47154959254937]
大規模言語モデル(LLM)は多言語ニューラルマシン翻訳(MNMT)において驚くほど優れた性能を示した
入力単語のサブセットに対する多言語辞書の連鎖による事前知識でLLMを拡張して翻訳能力を引き出す新しい方法であるCoDを提案する。
論文 参考訳(メタデータ) (2023-05-11T05:19:47Z) - DisinfoMeme: A Multimodal Dataset for Detecting Meme Intentionally
Spreading Out Disinformation [72.18912216025029]
偽情報ミームの検出を支援するためにDisinfoMemeを提案する。
このデータセットには、COVID-19パンデミック、Black Lives Matter運動、ベジタリアン/ベジタリアンという3つのトピックをカバーするRedditのミームが含まれている。
論文 参考訳(メタデータ) (2022-05-25T09:54:59Z) - bitsa_nlp@LT-EDI-ACL2022: Leveraging Pretrained Language Models for
Detecting Homophobia and Transphobia in Social Media Comments [0.9981479937152642]
ソーシャルメディアコメントにおけるホモフォビアとトランスフォビアを検出するためのLT-EDI共有タスクを提案する。
我々はmBERTのようなモノリンガル・マルチリンガル・トランスフォーマーモデルを用いて実験を行った。
私たちは、タミル語だけでなく、英語でYouTubeコメントの注意深い注釈付き実生活データセット上で、彼らのパフォーマンスを観察します。
論文 参考訳(メタデータ) (2022-03-27T10:15:34Z) - FBERT: A Neural Transformer for Identifying Offensive Content [67.12838911384024]
fBERTは、SOLIDで再訓練されたBERTモデルである。
複数の英文データセット上での攻撃的内容の同定におけるfBERTの性能を評価し、SOLIDからインスタンスを選択するためのしきい値をテストする。
fBERTモデルは、コミュニティで自由に利用できるようになる。
論文 参考訳(メタデータ) (2021-09-10T19:19:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。