論文の概要: Gradient Masters at BLP-2025 Task 1: Advancing Low-Resource NLP for Bengali using Ensemble-Based Adversarial Training for Hate Speech Detection
- arxiv url: http://arxiv.org/abs/2511.18324v1
- Date: Sun, 23 Nov 2025 07:29:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.775132
- Title: Gradient Masters at BLP-2025 Task 1: Advancing Low-Resource NLP for Bengali using Ensemble-Based Adversarial Training for Hate Speech Detection
- Title(参考訳): BLP-2025 Task 1:Ensemble-based Adversarial Training for Hate Speech Detectionによるベンガルの低リソースNLPの改善
- Authors: Syed Mohaiminul Hoque, Naimur Rahman, Md Sakhawat Hossain,
- Abstract要約: YouTubeコメントにサブタスク1A(ハッシュ型分類)と1B(ターゲットグループ分類)に対処するためのアンサンブルに基づく微調整戦略を提案する。
本稿では,ベースラインモデルより優れ,サブタスク1Aにおいて第6位を確保したバングラ言語モデルに対するハイブリッドアプローチを提案する。
- 参考スコア(独自算出の注目度): 1.2744523252873352
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces the approach of "Gradient Masters" for BLP-2025 Task 1: "Bangla Multitask Hate Speech Identification Shared Task". We present an ensemble-based fine-tuning strategy for addressing subtasks 1A (hate-type classification) and 1B (target group classification) in YouTube comments. We propose a hybrid approach on a Bangla Language Model, which outperformed the baseline models and secured the 6th position in subtask 1A with a micro F1 score of 73.23% and the third position in subtask 1B with 73.28%. We conducted extensive experiments that evaluated the robustness of the model throughout the development and evaluation phases, including comparisons with other Language Model variants, to measure generalization in low-resource Bangla hate speech scenarios and data set coverage. In addition, we provide a detailed analysis of our findings, exploring misclassification patterns in the detection of hate speech.
- Abstract(参考訳): 本稿では,BLP-2025タスク1「Bangla Multitask Hate Speech Identification Shared Task」に対する「グラディエントマスター」のアプローチを紹介する。
YouTubeコメントにサブタスク1A(ハッシュ型分類)と1B(ターゲットグループ分類)に対処するためのアンサンブルに基づく微調整戦略を提案する。
ベースラインモデルより優れ,サブタスク1Aでは第6位が73.23%,サブタスク1Bでは第3位が73.28%であるバングラ言語モデルに対するハイブリッドアプローチを提案する。
我々は、低リソースのバングラヘイトスピーチシナリオとデータセットカバレッジの一般化を測定するために、他の言語モデルとの比較を含む、開発および評価フェーズを通してモデルの堅牢性を評価する広範囲な実験を行った。
さらに, ヘイトスピーチの検出における誤分類パターンについて, 詳細な分析を行った。
関連論文リスト
- Retriv at BLP-2025 Task 1: A Transformer Ensemble and Multi-Task Learning Approach for Bangla Hate Speech Identification [7.459430148112738]
本稿では,社会的影響を受けながら言語的に困難な課題である,バングラヘイト音声識別の問題に対処する。
研究チーム「Retriv」は, (1A) ヘイトタイプ分類, (1B) ターゲットグループ識別, (1C) タイプ, 重症度, ターゲットの3つのサブタスクに参加した。
我々のシステムは, 72.75% (1A) と72.69% (1B) のマイクロf1スコアを達成し, 重み付きマイクロf1スコアを72.62% (1C) とした。
論文 参考訳(メタデータ) (2025-11-10T17:07:09Z) - Mavericks at BLP-2023 Task 1: Ensemble-based Approach Using Language
Models for Violence Inciting Text Detection [0.0]
ソーシャルメディアは、社会における憎しみや暴力的な発言の伝播を加速させてきた。
少ない研究と少ないデータにより、低リソース環境では、暴力を誘発するテキストを検出する問題がさらに悪化する。
本稿では,バングラ語処理に関する第1回ワークショップにおいて,Volence Inciting Text Detection共有タスクについて紹介する。
論文 参考訳(メタデータ) (2023-11-30T18:23:38Z) - nlpBDpatriots at BLP-2023 Task 1: A Two-Step Classification for Violence
Inciting Text Detection in Bangla [7.3481279783709805]
本稿では、VITD(Violence Inciting Text Detection)における共有タスクへのnlpBDpatriotsエントリについて論じる。
この任務の目的は、より違法な暴力行為を引き起こす暴力的脅威を特定し分類することである。
このタスクの最も優れたアプローチは、マクロF1スコア0.74の27チーム中6位である、後方翻訳と多言語性を用いた2段階の分類である。
論文 参考訳(メタデータ) (2023-11-25T13:47:34Z) - BanglaNLP at BLP-2023 Task 1: Benchmarking different Transformer Models
for Violence Inciting Text Detection in Bengali [0.46040036610482665]
本稿では,バングラでテキスト検出を誘発する暴力行為における,この共有課題を解決するために開発したシステムについて述べる。
私たちは、従来のアプローチと最近のアプローチの両方を説明して、モデルを学習させました。
提案システムでは,テキストに脅威があるかどうかを分類する。
論文 参考訳(メタデータ) (2023-10-16T19:35:04Z) - Bag of Tricks for Effective Language Model Pretraining and Downstream
Adaptation: A Case Study on GLUE [93.98660272309974]
このレポートでは、ジェネラル言語理解評価のリーダーボードに関するVega v1を簡潔に紹介します。
GLUEは、質問応答、言語受容性、感情分析、テキスト類似性、パラフレーズ検出、自然言語推論を含む9つの自然言語理解タスクのコレクションである。
最適化された事前学習と微調整の戦略により、13億のモデルは4/9タスクに新しい最先端のタスクを設定し、91.3の平均スコアを達成しました。
論文 参考訳(メタデータ) (2023-02-18T09:26:35Z) - Rethinking the Role of Scale for In-Context Learning: An
Interpretability-based Case Study at 66 Billion Scale [60.336655143884904]
本研究では,大規模言語モデルによるタスクの文脈内学習性能が,その基盤となるコンポーネントに均一に分散していないという仮説を考察する。
タスク間のインコンテキスト学習とインコンテキストサンプルの数に対して,アテンションヘッドのセット(重要でない)にかなりの重複がみられた。
論文 参考訳(メタデータ) (2022-12-18T14:36:07Z) - Toward Efficient Language Model Pretraining and Downstream Adaptation
via Self-Evolution: A Case Study on SuperGLUE [203.65227947509933]
このレポートでは、スーパーGLUEのリーダーボードにJDExplore d-teamのVega v2を提出しました。
SuperGLUEは、広く使われている汎用言語理解評価(GLUE)ベンチマークよりも難易度が高く、8つの難しい言語理解タスクを含んでいる。
論文 参考訳(メタデータ) (2022-12-04T15:36:18Z) - HuBERT: Self-Supervised Speech Representation Learning by Masked
Prediction of Hidden Units [81.53783563025084]
本稿では、BERTのような予測損失に対して、アライメントされたターゲットラベルを提供するオフラインクラスタリングステップを提案する。
提案手法の重要な要素は,マスク領域にのみ予測損失を適用することである。
HuBERTは、より困難なdev-otherおよびtest-other評価サブセットに対して、最大19%と13%の相対的なWER削減を示す。
論文 参考訳(メタデータ) (2021-06-14T14:14:28Z) - GUIR at SemEval-2020 Task 12: Domain-Tuned Contextualized Models for
Offensive Language Detection [27.45642971636561]
OffensEval 2020タスクには、攻撃的言語(Sub-task A)の存在の特定、攻撃的言語(Sub-task B)のターゲットの存在の特定、ターゲットのカテゴリ(Sub-task C)の識別の3つのサブタスクが含まれている。
サブタスクAのF1スコアは91.7%、サブタスクBの66.5%、サブタスクCの63.2%である。
論文 参考訳(メタデータ) (2020-07-28T20:45:43Z) - Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for
Offensive Language Detection [55.445023584632175]
我々は,マルチタスク学習とBERTモデルを組み合わせた攻撃的言語検出システムを構築した。
我々のモデルは、英語のサブタスクAで91.51%のF1スコアを獲得し、これは第1位に匹敵する。
論文 参考訳(メタデータ) (2020-04-28T11:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。