論文の概要: nlpBDpatriots at BLP-2023 Task 1: A Two-Step Classification for Violence
Inciting Text Detection in Bangla
- arxiv url: http://arxiv.org/abs/2311.15029v1
- Date: Sat, 25 Nov 2023 13:47:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 22:36:01.538508
- Title: nlpBDpatriots at BLP-2023 Task 1: A Two-Step Classification for Violence
Inciting Text Detection in Bangla
- Title(参考訳): NlpBDpatriots at BLP-2023 Task 1: A Two-Step Classification for Violence Inciting Text Detection in Bangla (特集 バイオサイバネティックスとバイオサイバネティックス)
- Authors: Md Nishat Raihan, Dhiman Goswami, Sadiya Sayara Chowdhury Puspo,
Marcos Zampieri
- Abstract要約: 本稿では、VITD(Violence Inciting Text Detection)における共有タスクへのnlpBDpatriotsエントリについて論じる。
この任務の目的は、より違法な暴力行為を引き起こす暴力的脅威を特定し分類することである。
このタスクの最も優れたアプローチは、マクロF1スコア0.74の27チーム中6位である、後方翻訳と多言語性を用いた2段階の分類である。
- 参考スコア(独自算出の注目度): 7.3481279783709805
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we discuss the nlpBDpatriots entry to the shared task on
Violence Inciting Text Detection (VITD) organized as part of the first workshop
on Bangla Language Processing (BLP) co-located with EMNLP. The aim of this task
is to identify and classify the violent threats, that provoke further unlawful
violent acts. Our best-performing approach for the task is two-step
classification using back translation and multilinguality which ranked 6th out
of 27 teams with a macro F1 score of 0.74.
- Abstract(参考訳): 本稿では,Bangla Language Processing (BLP) とEMNLPを併用した最初のワークショップの一環として企画された VITD (Violence Inciting Text Detection) における共有タスクへのnlpBDpatriotsの参加について述べる。
この任務の目的は、さらに違法な暴力行為を引き起こす暴力的な脅威を特定し分類することである。
提案手法は,27チーム中6位,マクロf1スコア0.74で,バック翻訳と多言語性を用いて2段階の分類を行う。
関連論文リスト
- Mavericks at BLP-2023 Task 1: Ensemble-based Approach Using Language
Models for Violence Inciting Text Detection [0.0]
ソーシャルメディアは、社会における憎しみや暴力的な発言の伝播を加速させてきた。
少ない研究と少ないデータにより、低リソース環境では、暴力を誘発するテキストを検出する問題がさらに悪化する。
本稿では,バングラ語処理に関する第1回ワークショップにおいて,Volence Inciting Text Detection共有タスクについて紹介する。
論文 参考訳(メタデータ) (2023-11-30T18:23:38Z) - nlpBDpatriots at BLP-2023 Task 2: A Transfer Learning Approach to Bangla
Sentiment Analysis [7.3481279783709805]
本稿では,Bangla Social Media Postsの感性分析における共有タスクへのnlpBDpatriots導入について論じる。
このタスクの主な目的は、ポジティブ、中立、ネガティブなラベルでアノテートされたBanglaデータセットを用いて、ソーシャルメディアコンテンツの極性を特定することである。
私たちのベストシステムは、この競技に参加した30チームの中で12位でした。
論文 参考訳(メタデータ) (2023-11-25T13:58:58Z) - BanglaNLP at BLP-2023 Task 1: Benchmarking different Transformer Models
for Violence Inciting Text Detection in Bengali [0.46040036610482665]
本稿では,バングラでテキスト検出を誘発する暴力行為における,この共有課題を解決するために開発したシステムについて述べる。
私たちは、従来のアプローチと最近のアプローチの両方を説明して、モデルを学習させました。
提案システムでは,テキストに脅威があるかどうかを分類する。
論文 参考訳(メタデータ) (2023-10-16T19:35:04Z) - Bag of Tricks for Effective Language Model Pretraining and Downstream
Adaptation: A Case Study on GLUE [93.98660272309974]
このレポートでは、ジェネラル言語理解評価のリーダーボードに関するVega v1を簡潔に紹介します。
GLUEは、質問応答、言語受容性、感情分析、テキスト類似性、パラフレーズ検出、自然言語推論を含む9つの自然言語理解タスクのコレクションである。
最適化された事前学習と微調整の戦略により、13億のモデルは4/9タスクに新しい最先端のタスクを設定し、91.3の平均スコアを達成しました。
論文 参考訳(メタデータ) (2023-02-18T09:26:35Z) - Overview of Abusive and Threatening Language Detection in Urdu at FIRE
2021 [50.591267188664666]
我々は、ウルドゥー語に対する虐待と脅しの2つの共通タスクを提示する。
本研究では, (i) 乱用と非乱用というラベル付きツイートを含む手動注釈付きデータセットと, (ii) 脅威と非脅威の2つを提示する。
両方のサブタスクに対して、m-Bertベースのトランスモデルは最高の性能を示した。
論文 参考訳(メタデータ) (2022-07-14T07:38:13Z) - RuArg-2022: Argument Mining Evaluation [69.87149207721035]
本稿は、ロシア語テキストを扱う議論分析システムの最初のコンペティションの主催者の報告である。
新型コロナウイルスの感染拡大に伴う3つの話題について、9,550文(ソーシャルメディア投稿記事)のコーパスを用意した。
両タスクで第一位を獲得したシステムは、BERTアーキテクチャのNLI(Natural Language Inference)変種を使用した。
論文 参考訳(メタデータ) (2022-06-18T17:13:37Z) - Fine-tuning of Pre-trained Transformers for Hate, Offensive, and Profane
Content Detection in English and Marathi [0.0]
本稿では,英語とインド・アーリア語におけるHate Speech and Offensive Content Identificationのために開発されたニューラルモデルについて述べる。
英語のサブタスクに対して,ヘイトスピーチ検出のための追加コーパスが微調整変圧器モデルに与える影響について検討する。
Marathiタスクに対しては,Language-Agnostic BERT Sentence Embedding (LaBSE)に基づくシステムを提案する。
論文 参考訳(メタデータ) (2021-10-25T07:11:02Z) - Learning to Selectively Learn for Weakly-supervised Paraphrase
Generation [81.65399115750054]
弱監督データを用いた高品質なパラフレーズを生成するための新しい手法を提案する。
具体的には、弱制御されたパラフレーズ生成問題に以下のように取り組む。
検索に基づく擬似パラフレーズ展開により、豊富なラベル付き並列文を得る。
提案手法は,既存の教師なしアプローチよりも大幅に改善され,教師付き最先端技術と同等の性能を示す。
論文 参考訳(メタデータ) (2021-09-25T23:31:13Z) - Unsupervised Bitext Mining and Translation via Self-trained Contextual
Embeddings [51.47607125262885]
不整合テキストから機械翻訳(MT)のための擬似並列コーパスを作成するための教師なし手法について述べる。
我々は多言語BERTを用いて、最寄りの検索のためのソースとターゲット文の埋め込みを作成し、自己学習によりモデルを適応する。
BUCC 2017 bitextマイニングタスクで並列文ペアを抽出し,F1スコアの最大24.5ポイント増加(絶対)を従来の教師なし手法と比較して観察することで,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-10-15T14:04:03Z) - Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for
Offensive Language Detection [55.445023584632175]
我々は,マルチタスク学習とBERTモデルを組み合わせた攻撃的言語検出システムを構築した。
我々のモデルは、英語のサブタスクAで91.51%のF1スコアを獲得し、これは第1位に匹敵する。
論文 参考訳(メタデータ) (2020-04-28T11:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。