論文の概要: An Under-Explored Application for Explainable Multimodal Misogyny Detection in code-mixed Hindi-English
- arxiv url: http://arxiv.org/abs/2601.08457v1
- Date: Tue, 13 Jan 2026 11:31:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.172266
- Title: An Under-Explored Application for Explainable Multimodal Misogyny Detection in code-mixed Hindi-English
- Title(参考訳): 符号混合ヒンディー語における説明可能なマルチモーダルミソジニー検出のための下探索的応用
- Authors: Sargam Yadav, Abhishek Kaushik, Kevin Mc Daid,
- Abstract要約: コード混合言語におけるテキストとミームの誤用を検出するためのマルチモーダルで説明可能なWebアプリケーションを提案する。
このアプリケーションは、研究者とコンテンツモデレーターの両方のためのツールとして機能し、この分野におけるさらなる研究を促進することを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Digital platforms have an ever-expanding user base, and act as a hub for communication, business, and connectivity. However, this has also allowed for the spread of hate speech and misogyny. Artificial intelligence models have emerged as an effective solution for countering online hate speech but are under explored for low resource and code-mixed languages and suffer from a lack of interpretability. Explainable Artificial Intelligence (XAI) can enhance transparency in the decisions of deep learning models, which is crucial for a sensitive domain such as hate speech detection. In this paper, we present a multi-modal and explainable web application for detecting misogyny in text and memes in code-mixed Hindi and English. The system leverages state-of-the-art transformer-based models that support multilingual and multimodal settings. For text-based misogyny identification, the system utilizes XLM-RoBERTa (XLM-R) and multilingual Bidirectional Encoder Representations from Transformers (mBERT) on a dataset of approximately 4,193 comments. For multimodal misogyny identification from memes, the system utilizes mBERT + EfficientNet, and mBERT + ResNET trained on a dataset of approximately 4,218 memes. It also provides feature importance scores using explainability techniques including Shapley Additive Values (SHAP) and Local Interpretable Model Agnostic Explanations (LIME). The application aims to serve as a tool for both researchers and content moderators, to promote further research in the field, combat gender based digital violence, and ensure a safe digital space. The system has been evaluated using human evaluators who provided their responses on Chatbot Usability Questionnaire (CUQ) and User Experience Questionnaire (UEQ) to determine overall usability.
- Abstract(参考訳): デジタルプラットフォームは拡大を続けるユーザー基盤を持ち、コミュニケーション、ビジネス、接続のためのハブとして機能する。
しかし、これはヘイトスピーチや軽蔑を広めることにもなった。
人工知能モデルは、オンラインヘイトスピーチに対抗する効果的なソリューションとして登場したが、低リソースとコード混在言語のために検討され、解釈可能性の欠如に悩まされている。
説明可能な人工知能(XAI)は、ヘイトスピーチ検出のようなセンシティブなドメインにとって不可欠であるディープラーニングモデルの決定における透明性を高めることができる。
本稿では,ヒンディー語と英語を混在させたテキストとミームの誤字を検出するためのマルチモーダルで説明可能なWebアプリケーションを提案する。
このシステムは、マルチランガルおよびマルチモーダル設定をサポートする最先端のトランスフォーマーベースのモデルを活用する。
XLM-RoBERTa(XLM-R)と多言語双方向エンコーダ表現(mBERT)を約4,193コメントのデータセット上でテキストベースで識別する。
ミームからのマルチモーダルな誤識別には、mBERT + EfficientNetとmBERT + ResNETを約4,218ミームのデータセットでトレーニングした。
また、Shapley Additive Values(SHAP)やLocal Interpretable Model Agnostic Explanations(LIME)など、説明可能性技術を使用した重要なスコアも提供する。
このアプリケーションは、研究者とコンテンツモデレーターの両方のためのツールとして機能し、この分野のさらなる研究を促進し、ジェンダーベースのデジタル暴力と闘い、安全なデジタル空間を確保することを目的としている。
このシステムは,チャットボットユーザビリティアンケート (CUQ) とユーザエクスペリエンスアンケート (UEQ) に回答を提示し,全体のユーザビリティを判断する人間評価器を用いて評価されてきた。
関連論文リスト
- Boosting Accuracy and Interpretability in Multilingual Hate Speech Detection Through Layer Freezing and Explainable AI [0.0]
本研究では,感情分析とヘイトスピーチ検出のための3つのトランスフォーマーモデルの性能について検討した。
評価は英語、韓国語、日本語、中国語、フランス語の5言語で行われている。
モデル決定に対する個々の単語の寄与を強調するために、局所解釈型モデル非依存説明(LIME)フレームワークを統合する。
論文 参考訳(メタデータ) (2026-01-06T04:07:51Z) - Can Prompting LLMs Unlock Hate Speech Detection across Languages? A Zero-shot and Few-shot Study [59.30098850050971]
この研究は、8つの非英語言語にわたるLLMのプロンプトに基づく検出を評価する。
実世界の評価セットのほとんどにおいて、ゼロショットと少数ショットが微調整エンコーダモデルに遅れを生じさせる一方で、ヘイトスピーチ検出のための関数的テストのより優れた一般化を実現していることを示す。
論文 参考訳(メタデータ) (2025-05-09T16:00:01Z) - A Unified Multi-Task Learning Architecture for Hate Detection Leveraging User-Based Information [23.017068553977982]
ヘイトスピーチ、攻撃的言語、攻撃性、人種差別、性差別、その他の虐待的言語は、ソーシャルメディアでよく見られる現象である。
ヘイトコンテンツを大規模にフィルタリングする人工知能(AI)ベースの介入が必要である。
本稿では,ユーザ内およびユーザ間情報を活用することで,英語のヘイトスピーチ識別を改善するユニークなモデルを提案する。
論文 参考訳(メタデータ) (2024-11-11T10:37:11Z) - M4GT-Bench: Evaluation Benchmark for Black-Box Machine-Generated Text Detection [69.41274756177336]
大規模言語モデル (LLMs) は様々なチャネルにまたがる機械生成テキスト (MGT) を前例のない急激な増加をもたらした。
このことは、その潜在的な誤用と社会的意味に関する正当な懸念を提起する。
本稿では,MGT-M4GT-Benchの多言語,マルチドメイン,マルチジェネレータコーパスに基づく新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2024-02-17T02:50:33Z) - Fine-Tuning Llama 2 Large Language Models for Detecting Online Sexual
Predatory Chats and Abusive Texts [2.406214748890827]
本稿では,Llama 2 7B-パラメーターモデルを用いて,オンライン性的捕食チャットと虐待言語の検出手法を提案する。
我々は、異なる大きさ、不均衡度、言語(英語、ローマ・ウルドゥー語、ウルドゥー語)のデータセットを用いてLLMを微調整する。
実験結果から,提案手法は3つの異なるデータセットに対して精度よく一貫した性能を示す。
論文 参考訳(メタデータ) (2023-08-28T16:18:50Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - A New Generation of Perspective API: Efficient Multilingual
Character-level Transformers [66.9176610388952]
Google JigsawのAspective APIの次期バージョンの基礎を提示する。
このアプローチの中心は、単一の多言語トークンフリーなCharformerモデルである。
静的な語彙を強制することで、さまざまな設定で柔軟性が得られます。
論文 参考訳(メタデータ) (2022-02-22T20:55:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。