論文の概要: ARC-NLP at Multimodal Hate Speech Event Detection 2023: Multimodal
Methods Boosted by Ensemble Learning, Syntactical and Entity Features
- arxiv url: http://arxiv.org/abs/2307.13829v1
- Date: Tue, 25 Jul 2023 21:56:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-27 14:15:30.342393
- Title: ARC-NLP at Multimodal Hate Speech Event Detection 2023: Multimodal
Methods Boosted by Ensemble Learning, Syntactical and Entity Features
- Title(参考訳): マルチモーダルヘイト音声イベント検出2023におけるARC-NLP: 学習, 構文, 実体特徴によるマルチモーダル手法
- Authors: Umitcan Sahin, Izzet Emre Kucukkaya, Oguzhan Ozcelik, Cagri Toraman
- Abstract要約: ロシア・ウクライナ戦争では、両派ともプロパガンダやヘイトスピーチを広める手段として、テキストに埋め込まれた画像に大きく依存していた。
本稿では,マルチモーダル・ヘイト・スピーチ・イベント検出2023の2つのサブタスクについて概説する。
最初のサブタスクであるヘイトスピーチ検出では、アンサンブル学習と構文テキスト属性によって強化されたマルチモーダルディープラーニングモデルを利用する。
第2のサブタスク、ターゲット検出では、名前付きエンティティ機能によって強化されたマルチモーダルディープラーニングモデルを採用する。
- 参考スコア(独自算出の注目度): 1.3190581566723918
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Text-embedded images can serve as a means of spreading hate speech,
propaganda, and extremist beliefs. Throughout the Russia-Ukraine war, both
opposing factions heavily relied on text-embedded images as a vehicle for
spreading propaganda and hate speech. Ensuring the effective detection of hate
speech and propaganda is of utmost importance to mitigate the negative effect
of hate speech dissemination. In this paper, we outline our methodologies for
two subtasks of Multimodal Hate Speech Event Detection 2023. For the first
subtask, hate speech detection, we utilize multimodal deep learning models
boosted by ensemble learning and syntactical text attributes. For the second
subtask, target detection, we employ multimodal deep learning models boosted by
named entity features. Through experimentation, we demonstrate the superior
performance of our models compared to all textual, visual, and text-visual
baselines employed in multimodal hate speech detection. Furthermore, our models
achieve the first place in both subtasks on the final leaderboard of the shared
task.
- Abstract(参考訳): テキスト埋め込み画像はヘイトスピーチ、プロパガンダ、過激主義的信念を広める手段として機能する。
ロシア・ウクライナ戦争中、両派はプロパガンダやヘイトスピーチを広める手段としてテキスト埋め込み画像に大きく依存していた。
ヘイトスピーチとプロパガンダを効果的に検出することは、ヘイトスピーチの普及のネガティブな影響を軽減するために最も重要である。
本稿では,マルチモーダルヘイト音声イベント検出2023の2つのサブタスクについて概説する。
最初のサブタスクであるヘイトスピーチ検出では、アンサンブル学習と構文テキスト属性によって強化されたマルチモーダルディープラーニングモデルを利用する。
第2のサブタスクであるターゲット検出では、名前付きエンティティ機能によって強化されたマルチモーダルディープラーニングモデルを採用する。
実験により,マルチモーダルヘイトスピーチ検出に使用されるすべてのテキストベースライン,視覚ベースライン,テキスト・ビジュアルベースラインと比較して,モデルの優れた性能を示す。
さらに、我々のモデルは、共有タスクの最終リーダーボードにおいて、両方のサブタスクで第一位を獲得します。
関連論文リスト
- Hierarchical Sentiment Analysis Framework for Hate Speech Detection: Implementing Binary and Multiclass Classification Strategy [0.0]
本稿では,英語におけるヘイトスピーチを検出するために,共有感情表現と統合された新しいマルチタスクモデルを提案する。
我々は、感情分析とトランスフォーマーに基づく訓練モデルを利用することで、複数のデータセット間でのヘイトスピーチの検出を大幅に改善できると結論付けた。
論文 参考訳(メタデータ) (2024-11-03T04:11:33Z) - Bridging Modalities: Enhancing Cross-Modality Hate Speech Detection with Few-Shot In-Context Learning [4.136573141724715]
インターネット上でのヘイトスピーチは、デジタルプラットフォームの安全性にとって大きな課題となる。
近年の研究では、特定のモダリティに合わせた検出モデルが開発されている。
本研究では,大規模言語モデルを用いたテキスト内学習を多用した広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-10-08T01:27:12Z) - MasonPerplexity at Multimodal Hate Speech Event Detection 2024: Hate
Speech and Target Detection Using Transformer Ensembles [6.2696956160552455]
本稿では,EACL 2024のケース2024におけるマルチモーダル・ヘイト・スピーチ・イベント検出における共有タスクに対するMasonPerplexityの提出について述べる。
サブタスクAにはXLM-roBERTa-largeモデル、サブタスクBにはXLM-roBERTa-base、BERTweet-large、BERT-baseを組み合わせたアンサンブルアプローチを用いる。
論文 参考訳(メタデータ) (2024-02-03T00:23:36Z) - Lexical Squad@Multimodal Hate Speech Event Detection 2023: Multimodal
Hate Speech Detection using Fused Ensemble Approach [0.23020018305241333]
テキスト埋め込み画像から「ヘイトスピーチ」と「ノーヘイトスピーチ」の2つのラベルに分類し、ヘイトスピーチを検出するための新しいアンサンブル学習手法を提案する。
提案したアンサンブルモデルでは,75.21と74.96を精度,F-1スコア(参照)として有望な結果を得た。
論文 参考訳(メタデータ) (2023-09-23T12:06:05Z) - Contextual Object Detection with Multimodal Large Language Models [66.15566719178327]
本稿では,コンテキストオブジェクト検出の新たな研究課題について紹介する。
言語クローゼテスト,視覚キャプション,質問応答の3つの代表的なシナリオについて検討した。
本稿では、視覚的コンテキストのエンドツーエンドの微分可能なモデリングが可能な統合マルチモーダルモデルContextDETを提案する。
論文 参考訳(メタデータ) (2023-05-29T17:50:33Z) - Unified Speech-Text Pre-training for Speech Translation and Recognition [113.31415771943162]
音声認識のためのエンコーダ・デコーダ・モデリング・フレームワークにおいて,音声とテキストを協調的に事前学習する手法について述べる。
提案手法は,4つの自己教師付きサブタスクを組み込んだクロスモーダル学習手法である。
MuST-C音声翻訳データセットの最先端よりも1.7から2.3BLEUの改善が達成されている。
論文 参考訳(メタデータ) (2022-04-11T20:59:51Z) - Deep Learning for Hate Speech Detection: A Comparative Study [54.42226495344908]
ここでは, ディープ・ヘイト・音声検出法と浅いヘイト・音声検出法を大規模に比較した。
私たちの目標は、この地域の進歩を照らし、現在の最先端の強みと弱点を特定することです。
そこで我々は,ヘイトスピーチ検出の実践的利用に関するガイダンスの提供,最先端の定量化,今後の研究方向の特定を目的としている。
論文 参考訳(メタデータ) (2022-02-19T03:48:20Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - AngryBERT: Joint Learning Target and Emotion for Hate Speech Detection [5.649040805759824]
本論文では,感情分類によるヘイトスピーチ検出と,二次的関連タスクとしてのターゲット同定を共同学習するマルチタスク学習型モデルであるAngryBERTを提案する。
実験の結果,AngryBERTは最先端のシングルタスク学習やマルチタスク学習のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2021-03-14T16:17:26Z) - SPLAT: Speech-Language Joint Pre-Training for Spoken Language
Understanding [61.02342238771685]
音声理解には、入力音響信号を解析してその言語内容を理解し、予測するモデルが必要である。
大規模無注釈音声やテキストからリッチな表現を学習するために,様々な事前学習手法が提案されている。
音声と言語モジュールを協調的に事前学習するための,新しい半教師付き学習フレームワークであるSPLATを提案する。
論文 参考訳(メタデータ) (2020-10-05T19:29:49Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。