論文の概要: Retriv at BLP-2025 Task 1: A Transformer Ensemble and Multi-Task Learning Approach for Bangla Hate Speech Identification
- arxiv url: http://arxiv.org/abs/2511.07304v1
- Date: Mon, 10 Nov 2025 17:07:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.381854
- Title: Retriv at BLP-2025 Task 1: A Transformer Ensemble and Multi-Task Learning Approach for Bangla Hate Speech Identification
- Title(参考訳): BLP-2025タスク1における検索:バングラヘイト音声識別のためのトランスフォーマーアンサンブルとマルチタスク学習アプローチ
- Authors: Sourav Saha, K M Nafi Asib, Mohammed Moshiul Hoque,
- Abstract要約: 本稿では,社会的影響を受けながら言語的に困難な課題である,バングラヘイト音声識別の問題に対処する。
研究チーム「Retriv」は, (1A) ヘイトタイプ分類, (1B) ターゲットグループ識別, (1C) タイプ, 重症度, ターゲットの3つのサブタスクに参加した。
我々のシステムは, 72.75% (1A) と72.69% (1B) のマイクロf1スコアを達成し, 重み付きマイクロf1スコアを72.62% (1C) とした。
- 参考スコア(独自算出の注目度): 7.459430148112738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the problem of Bangla hate speech identification, a socially impactful yet linguistically challenging task. As part of the "Bangla Multi-task Hate Speech Identification" shared task at the BLP Workshop, IJCNLP-AACL 2025, our team "Retriv" participated in all three subtasks: (1A) hate type classification, (1B) target group identification, and (1C) joint detection of type, severity, and target. For subtasks 1A and 1B, we employed a soft-voting ensemble of transformer models (BanglaBERT, MuRIL, IndicBERTv2). For subtask 1C, we trained three multitask variants and aggregated their predictions through a weighted voting ensemble. Our systems achieved micro-f1 scores of 72.75% (1A) and 72.69% (1B), and a weighted micro-f1 score of 72.62% (1C). On the shared task leaderboard, these corresponded to 9th, 10th, and 7th positions, respectively. These results highlight the promise of transformer ensembles and weighted multitask frameworks for advancing Bangla hate speech detection in low-resource contexts. We made experimental scripts publicly available for the community.
- Abstract(参考訳): 本稿では,社会的影響を受けながら言語的に困難な課題である,バングラヘイト音声識別の問題に対処する。
BLPワークショップ「Bangla Multi-task Hate Speech Identification」の共有タスク「IJCNLP-AACL 2025」の一環として、我々のチーム「Retriv」は、(1A)ヘイトタイプ分類、(1B)ターゲットグループ識別、(1C)タイプ、重症度、ターゲットの同時検出の3つのサブタスクに参加した。
サブタスク 1A と 1B に対して,トランスフォーマーモデル (BanglaBERT, MuRIL, IndicBERTv2) のソフトボッティングアンサンブルを用いた。
サブタスク1Cでは、3つのマルチタスク変種を訓練し、重み付けされた投票アンサンブルを用いて予測を集計した。
本システムでは, 72.75% (1A) および72.69% (1B) のマイクロf1スコアを達成し, 重み付きマイクロf1スコアは72.62% (1C) のマイクロf1スコアを達成した。
共有タスクリーダーボードでは、それぞれ第9位、第10位、第7位に対応している。
これらの結果は,低リソース環境下でのバングラヘイト音声検出を促進するためのトランスフォーマーアンサンブルと重み付きマルチタスクフレームワークの約束を強調した。
実験的なスクリプトをコミュニティで公開しました。
関連論文リスト
- GenAI Content Detection Task 1: English and Multilingual Machine-Generated Text Detection: AI vs. Human [71.42669028683741]
我々は,Coling 2025におけるGenAIワークショップの一環として,バイナリマシン生成テキスト検出における共有タスクを提案する。
このタスクは、モノリンガル(英: Monolingual)とマルチリンガル(英: Multilingual)の2つのサブタスクから構成される。
本稿では,データの包括的概要,結果の概要,参加システムの詳細な説明,提出内容の詳細な分析について述べる。
論文 参考訳(メタデータ) (2025-01-19T11:11:55Z) - MasonPerplexity at Multimodal Hate Speech Event Detection 2024: Hate
Speech and Target Detection Using Transformer Ensembles [6.2696956160552455]
本稿では,EACL 2024のケース2024におけるマルチモーダル・ヘイト・スピーチ・イベント検出における共有タスクに対するMasonPerplexityの提出について述べる。
サブタスクAにはXLM-roBERTa-largeモデル、サブタスクBにはXLM-roBERTa-base、BERTweet-large、BERT-baseを組み合わせたアンサンブルアプローチを用いる。
論文 参考訳(メタデータ) (2024-02-03T00:23:36Z) - Mavericks at ArAIEval Shared Task: Towards a Safer Digital Space --
Transformer Ensemble Models Tackling Deception and Persuasion [0.0]
本稿では,各課題のタスク1-Aとタスク2-Aのアプローチについて述べる。
タスクは、与えられたバイナリ分類問題に対して、ツイートとニュース記事のマルチジャンルスニペットを使用する。
タスク1-A(8位)では0.742、タスク2-A(7位)では0.901のマイクロF1スコアを達成した。
論文 参考訳(メタデータ) (2023-11-30T17:26:57Z) - nlpBDpatriots at BLP-2023 Task 1: A Two-Step Classification for Violence
Inciting Text Detection in Bangla [7.3481279783709805]
本稿では、VITD(Violence Inciting Text Detection)における共有タスクへのnlpBDpatriotsエントリについて論じる。
この任務の目的は、より違法な暴力行為を引き起こす暴力的脅威を特定し分類することである。
このタスクの最も優れたアプローチは、マクロF1スコア0.74の27チーム中6位である、後方翻訳と多言語性を用いた2段階の分類である。
論文 参考訳(メタデータ) (2023-11-25T13:47:34Z) - Bag of Tricks for Effective Language Model Pretraining and Downstream
Adaptation: A Case Study on GLUE [93.98660272309974]
このレポートでは、ジェネラル言語理解評価のリーダーボードに関するVega v1を簡潔に紹介します。
GLUEは、質問応答、言語受容性、感情分析、テキスト類似性、パラフレーズ検出、自然言語推論を含む9つの自然言語理解タスクのコレクションである。
最適化された事前学習と微調整の戦略により、13億のモデルは4/9タスクに新しい最先端のタスクを設定し、91.3の平均スコアを達成しました。
論文 参考訳(メタデータ) (2023-02-18T09:26:35Z) - Overview of Abusive and Threatening Language Detection in Urdu at FIRE
2021 [50.591267188664666]
我々は、ウルドゥー語に対する虐待と脅しの2つの共通タスクを提示する。
本研究では, (i) 乱用と非乱用というラベル付きツイートを含む手動注釈付きデータセットと, (ii) 脅威と非脅威の2つを提示する。
両方のサブタスクに対して、m-Bertベースのトランスモデルは最高の性能を示した。
論文 参考訳(メタデータ) (2022-07-14T07:38:13Z) - Fine-tuning of Pre-trained Transformers for Hate, Offensive, and Profane
Content Detection in English and Marathi [0.0]
本稿では,英語とインド・アーリア語におけるHate Speech and Offensive Content Identificationのために開発されたニューラルモデルについて述べる。
英語のサブタスクに対して,ヘイトスピーチ検出のための追加コーパスが微調整変圧器モデルに与える影響について検討する。
Marathiタスクに対しては,Language-Agnostic BERT Sentence Embedding (LaBSE)に基づくシステムを提案する。
論文 参考訳(メタデータ) (2021-10-25T07:11:02Z) - Efficiently Identifying Task Groupings for Multi-Task Learning [55.80489920205404]
マルチタスク学習は、あるタスクによって学習された情報を活用して、他のタスクのトレーニングに役立てることができる。
マルチタスク学習モデルにおいて、どのタスクを一緒にトレーニングすべきかを選択するアプローチを提案する。
本手法は,全タスクを協調学習し,タスクの勾配が他のタスクの損失に影響を及ぼす影響を定量化する。
論文 参考訳(メタデータ) (2021-09-10T02:01:43Z) - HuBERT: Self-Supervised Speech Representation Learning by Masked
Prediction of Hidden Units [81.53783563025084]
本稿では、BERTのような予測損失に対して、アライメントされたターゲットラベルを提供するオフラインクラスタリングステップを提案する。
提案手法の重要な要素は,マスク領域にのみ予測損失を適用することである。
HuBERTは、より困難なdev-otherおよびtest-other評価サブセットに対して、最大19%と13%の相対的なWER削減を示す。
論文 参考訳(メタデータ) (2021-06-14T14:14:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。