論文の概要: Z-AGI Labs at ClimateActivism 2024: Stance and Hate Event Detection on Social Media
- arxiv url: http://arxiv.org/abs/2402.17014v2
- Date: Sun, 14 Apr 2024 13:43:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-16 20:31:43.352599
- Title: Z-AGI Labs at ClimateActivism 2024: Stance and Hate Event Detection on Social Media
- Title(参考訳): Z-AGI Labs at ClimateActivism 2024: Stance and Hate Event Detection on Social Media
- Authors: Nikhil Narayan, Mrutyunjay Biswal,
- Abstract要約: この研究は、ケース2024における気候活動状況とヘイト事象の検出に関する共有タスクの確立につながった。
ソーシャルメディア上でヘイトスピーチと競合する気候活動家に焦点をあてて、我々の研究はツイートからのヘイトスピーチの識別に寄与する。
チームZ-AGI LabsはTLTM、Xgboost、LGBMなど様々なモデルをTf-Idfに基づいて評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the digital realm, rich data serves as a crucial source of insights into the complexities of social, political, and economic landscapes. Addressing the growing need for high-quality information on events and the imperative to combat hate speech, this research led to the establishment of the Shared Task on Climate Activism Stance and Hate Event Detection at CASE 2024. Focused on climate activists contending with hate speech on social media, our study contributes to hate speech identification from tweets. Analyzing three sub-tasks - Hate Speech Detection (Sub-task A), Targets of Hate Speech Identification (Sub-task B), and Stance Detection (Sub-task C) - Team Z-AGI Labs evaluated various models, including LSTM, Xgboost, and LGBM based on Tf-Idf. Results unveiled intriguing variations, with Catboost excelling in Subtask-B (F1: 0.5604) and Subtask-C (F1: 0.7081), while LGBM emerged as the top-performing model for Subtask-A (F1: 0.8684). This research provides valuable insights into the suitability of classical machine learning models for climate hate speech and stance detection, aiding informed model selection for robust mechanisms.
- Abstract(参考訳): デジタルの世界では、リッチデータは、社会的、政治的、経済的景観の複雑さに関する重要な洞察の源となっている。
イベントに関する情報の質の向上とヘイトスピーチと闘うための必須事項に対処し, ケース2024における気候活動状況とヘイトイベント検出に関する共有タスクの確立に繋がった。
ソーシャルメディア上でヘイトスピーチと競合する気候活動家に焦点をあてて、我々の研究はツイートからのヘイトスピーチの識別に寄与する。
Tf-Idfに基づくLSTM,Xgboost,LGBMの3つのサブタスクを解析し,Hate Speech Detection (Sub-task A),Tate Speech Identification (Sub-task B),Stance Detection (Sub-task C)の3つのサブタスクを解析した。
結果は、Subtask-B (F1: 0.5604) とSubtask-C (F1: 0.7081) で、LGBMはSubtask-A (F1: 0.8684) の最高性能モデルとして登場した。
この研究は、気候ヘイトスピーチと姿勢検出のための古典的機械学習モデルの適合性に関する貴重な洞察を与え、堅牢なメカニズムのための情報モデル選択を支援する。
関連論文リスト
- Causal Micro-Narratives [62.47217054314046]
テキストから因果マイクロナラティブを分類する新しい手法を提案する。
これらの物語は、対象対象の因果関係と/または効果の文レベルの説明である。
論文 参考訳(メタデータ) (2024-10-07T17:55:10Z) - Detecting Anti-Semitic Hate Speech using Transformer-based Large Language Models [0.8110978727364399]
われわれの研究は、2019年以来、トランスフォーマーベースで生成可能なAI技術に代わるものを探究してきた。
我々は、新しいデータラベリング手法を開発し、反セミティックヘイトスピーチをターゲットとした概念実証を確立した。
本稿では, ヘイトスピーチ検出の複雑さに対処するための, 最先端手法の比較検討を行った。
論文 参考訳(メタデータ) (2024-05-06T19:00:31Z) - Bryndza at ClimateActivism 2024: Stance, Target and Hate Event Detection
via Retrieval-Augmented GPT-4 and LLaMA [0.0]
本研究は,気候活動状況とHate Event Detectionに関するCASE 2024共有課題に対する我々のアプローチを詳述する。
我々は,大規模言語モデル(LLM),特にGPT-4のゼロショットや少数ショットの設定能力について検討した。
その結果,本モデルがベースラインを著しく上回り,ターゲット検出タスクにおいて第2位を確保したことが示唆された。
論文 参考訳(メタデータ) (2024-02-09T17:02:41Z) - MasonPerplexity at Multimodal Hate Speech Event Detection 2024: Hate
Speech and Target Detection Using Transformer Ensembles [6.2696956160552455]
本稿では,EACL 2024のケース2024におけるマルチモーダル・ヘイト・スピーチ・イベント検出における共有タスクに対するMasonPerplexityの提出について述べる。
サブタスクAにはXLM-roBERTa-largeモデル、サブタスクBにはXLM-roBERTa-base、BERTweet-large、BERT-baseを組み合わせたアンサンブルアプローチを用いる。
論文 参考訳(メタデータ) (2024-02-03T00:23:36Z) - Hate Speech and Offensive Content Detection in Indo-Aryan Languages: A
Battle of LSTM and Transformers [0.0]
我々はベンガル語、アサメセ語、ボド語、シンハラ語、グジャラート語の5つの異なる言語でヘイトスピーチの分類を比較した。
Bert Base Multilingual Casedは、ベンガル語で0.67027得点、アサメ語で0.70525得点を達成した。
シンハラではXLM-RはF1スコア0.83493で際立っているが、グジャラティではF1スコア0.76601で照らされたカスタムLSTMベースのモデルである。
論文 参考訳(メタデータ) (2023-12-09T20:24:00Z) - The MuSe 2023 Multimodal Sentiment Analysis Challenge: Mimicked
Emotions, Cross-Cultural Humour, and Personalisation [69.13075715686622]
MuSe 2023は、現代の3つの異なるマルチモーダル感情と感情分析の問題に対処する共有タスクの集合である。
MuSe 2023は、さまざまな研究コミュニティから幅広いオーディエンスを集めようとしている。
論文 参考訳(メタデータ) (2023-05-05T08:53:57Z) - A Hierarchical Regression Chain Framework for Affective Vocal Burst
Recognition [72.36055502078193]
本稿では,声帯からの感情認識のための連鎖回帰モデルに基づく階層的枠組みを提案する。
データスパシティの課題に対処するため、レイヤワイドおよび時間アグリゲーションモジュールを備えた自己教師付き学習(SSL)表現も使用しています。
提案されたシステムは、ACII Affective Vocal Burst (A-VB) Challenge 2022に参加し、「TWO」および「CULTURE」タスクで第1位となった。
論文 参考訳(メタデータ) (2023-03-14T16:08:45Z) - Deep Learning for Hate Speech Detection: A Comparative Study [54.42226495344908]
ここでは, ディープ・ヘイト・音声検出法と浅いヘイト・音声検出法を大規模に比較した。
私たちの目標は、この地域の進歩を照らし、現在の最先端の強みと弱点を特定することです。
そこで我々は,ヘイトスピーチ検出の実践的利用に関するガイダンスの提供,最先端の定量化,今後の研究方向の特定を目的としている。
論文 参考訳(メタデータ) (2022-02-19T03:48:20Z) - Characterizing the adversarial vulnerability of speech self-supervised
learning [95.03389072594243]
我々は,ゼロ知識とリミテッド知識の両方の敵からの攻撃の下で,そのようなパラダイムの敵対的脆弱性を調査するための最初の試みを行う。
実験結果から, SUPERB が提案するパラダイムは, 限られた知識を持つ敵に対して脆弱であることが示唆された。
論文 参考訳(メタデータ) (2021-11-08T08:44:04Z) - AngryBERT: Joint Learning Target and Emotion for Hate Speech Detection [5.649040805759824]
本論文では,感情分類によるヘイトスピーチ検出と,二次的関連タスクとしてのターゲット同定を共同学習するマルチタスク学習型モデルであるAngryBERTを提案する。
実験の結果,AngryBERTは最先端のシングルタスク学習やマルチタスク学習のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2021-03-14T16:17:26Z) - Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for
Offensive Language Detection [55.445023584632175]
我々は,マルチタスク学習とBERTモデルを組み合わせた攻撃的言語検出システムを構築した。
我々のモデルは、英語のサブタスクAで91.51%のF1スコアを獲得し、これは第1位に匹敵する。
論文 参考訳(メタデータ) (2020-04-28T11:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。