論文の概要: SyntaxMind at BLP-2025 Task 1: Leveraging Attention Fusion of CNN and GRU for Hate Speech Detection
- arxiv url: http://arxiv.org/abs/2601.06306v1
- Date: Fri, 09 Jan 2026 20:54:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.741573
- Title: SyntaxMind at BLP-2025 Task 1: Leveraging Attention Fusion of CNN and GRU for Hate Speech Detection
- Title(参考訳): BLP-2025タスク1におけるSyntaxMind: ヘイトスピーチ検出のためのCNNとGRUの注意融合の活用
- Authors: Md. Shihab Uddin Riad,
- Abstract要約: 本稿では,BLP-2025 Task 1: Hate Speech Detectionで使用したシステムについて述べる。
提案手法は,GRUとCNNをベースとした複数の並列処理ブランチとBanglaBERT埋め込みを統合し,次に注意層と高密度層を用いて最終分類を行う。
提案システムでは,Subtask 1Aでは0.7345マイクロF1スコア(第2位),Subtask 1Bでは0.7317マイクロF1スコア(第5位)と高い競争性を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes our system used in the BLP-2025 Task 1: Hate Speech Detection. We participated in Subtask 1A and Subtask 1B, addressing hate speech classification in Bangla text. Our approach employs a unified architecture that integrates BanglaBERT embeddings with multiple parallel processing branches based on GRUs and CNNs, followed by attention and dense layers for final classification. The model is designed to capture both contextual semantics and local linguistic cues, enabling robust performance across subtasks. The proposed system demonstrated high competitiveness, obtaining 0.7345 micro F1-Score (2nd place) in Subtask 1A and 0.7317 micro F1-Score (5th place) in Subtask 1B.
- Abstract(参考訳): 本稿では,BLP-2025 Task 1: Hate Speech Detectionで使用したシステムについて述べる。
バングラ語テキストのヘイトスピーチ分類に対処するため,Subtask 1AとSubtask 1Bに参加した。
提案手法では,GRUとCNNをベースとした複数の並列処理ブランチとBanglaBERT埋め込みを統合した統合アーキテクチャを用いて,最終分類に注目層と高密度層を用いる。
このモデルは文脈意味論と局所言語的手がかりの両方を捉え、サブタスク間の堅牢なパフォーマンスを実現するように設計されている。
提案システムでは,Subtask 1Aでは0.7345マイクロF1スコア(第2位),Subtask 1Bでは0.7317マイクロF1スコア(第5位)と高い競争性を示した。
関連論文リスト
- Gradient Masters at BLP-2025 Task 1: Advancing Low-Resource NLP for Bengali using Ensemble-Based Adversarial Training for Hate Speech Detection [1.2744523252873352]
YouTubeコメントにサブタスク1A(ハッシュ型分類)と1B(ターゲットグループ分類)に対処するためのアンサンブルに基づく微調整戦略を提案する。
本稿では,ベースラインモデルより優れ,サブタスク1Aにおいて第6位を確保したバングラ言語モデルに対するハイブリッドアプローチを提案する。
論文 参考訳(メタデータ) (2025-11-23T07:29:09Z) - Retriv at BLP-2025 Task 1: A Transformer Ensemble and Multi-Task Learning Approach for Bangla Hate Speech Identification [7.459430148112738]
本稿では,社会的影響を受けながら言語的に困難な課題である,バングラヘイト音声識別の問題に対処する。
研究チーム「Retriv」は, (1A) ヘイトタイプ分類, (1B) ターゲットグループ識別, (1C) タイプ, 重症度, ターゲットの3つのサブタスクに参加した。
我々のシステムは, 72.75% (1A) と72.69% (1B) のマイクロf1スコアを達成し, 重み付きマイクロf1スコアを72.62% (1C) とした。
論文 参考訳(メタデータ) (2025-11-10T17:07:09Z) - GenAI Content Detection Task 1: English and Multilingual Machine-Generated Text Detection: AI vs. Human [71.42669028683741]
我々は,Coling 2025におけるGenAIワークショップの一環として,バイナリマシン生成テキスト検出における共有タスクを提案する。
このタスクは、モノリンガル(英: Monolingual)とマルチリンガル(英: Multilingual)の2つのサブタスクから構成される。
本稿では,データの包括的概要,結果の概要,参加システムの詳細な説明,提出内容の詳細な分析について述べる。
論文 参考訳(メタデータ) (2025-01-19T11:11:55Z) - SemEval-2024 Task 8: Multidomain, Multimodel and Multilingual Machine-Generated Text Detection [68.858931667807]
Subtask Aは、テキストが人間によって書かれたか、機械によって生成されたかを決定するバイナリ分類タスクである。
サブタスクBは、テキストの正確なソースを検出し、それが人間によって書かれたか、特定のLCMによって生成されたかを認識する。
Subtask Cは、著者が人間から機械へ遷移するテキスト内の変化点を特定することを目的としている。
論文 参考訳(メタデータ) (2024-04-22T13:56:07Z) - MasonPerplexity at Multimodal Hate Speech Event Detection 2024: Hate
Speech and Target Detection Using Transformer Ensembles [6.2696956160552455]
本稿では,EACL 2024のケース2024におけるマルチモーダル・ヘイト・スピーチ・イベント検出における共有タスクに対するMasonPerplexityの提出について述べる。
サブタスクAにはXLM-roBERTa-largeモデル、サブタスクBにはXLM-roBERTa-base、BERTweet-large、BERT-baseを組み合わせたアンサンブルアプローチを用いる。
論文 参考訳(メタデータ) (2024-02-03T00:23:36Z) - Event Causality Identification with Causal News Corpus -- Shared Task 3,
CASE 2022 [3.0775142635531685]
事象因果同定 2022 症例の共有タスクには2つのサブタスクが含まれていた。
サブタスク1は、ある文が因果関係を含むか否かを予測するために参加者に要求する。
サブタスク2では、参加者は因果文ごとに原因、効果、信号のスパンを特定する必要があった。
論文 参考訳(メタデータ) (2022-11-22T10:34:09Z) - Overview of Abusive and Threatening Language Detection in Urdu at FIRE
2021 [50.591267188664666]
我々は、ウルドゥー語に対する虐待と脅しの2つの共通タスクを提示する。
本研究では, (i) 乱用と非乱用というラベル付きツイートを含む手動注釈付きデータセットと, (ii) 脅威と非脅威の2つを提示する。
両方のサブタスクに対して、m-Bertベースのトランスモデルは最高の性能を示した。
論文 参考訳(メタデータ) (2022-07-14T07:38:13Z) - RuArg-2022: Argument Mining Evaluation [69.87149207721035]
本稿は、ロシア語テキストを扱う議論分析システムの最初のコンペティションの主催者の報告である。
新型コロナウイルスの感染拡大に伴う3つの話題について、9,550文(ソーシャルメディア投稿記事)のコーパスを用意した。
両タスクで第一位を獲得したシステムは、BERTアーキテクチャのNLI(Natural Language Inference)変種を使用した。
論文 参考訳(メタデータ) (2022-06-18T17:13:37Z) - Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for
Offensive Language Detection [55.445023584632175]
我々は,マルチタスク学習とBERTモデルを組み合わせた攻撃的言語検出システムを構築した。
我々のモデルは、英語のサブタスクAで91.51%のF1スコアを獲得し、これは第1位に匹敵する。
論文 参考訳(メタデータ) (2020-04-28T11:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。