論文の概要: Hate Speech and Offensive Language Detection in Bengali
- arxiv url: http://arxiv.org/abs/2210.03479v1
- Date: Fri, 7 Oct 2022 12:06:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 13:49:54.776076
- Title: Hate Speech and Offensive Language Detection in Bengali
- Title(参考訳): ベンガル語におけるヘイトスピーチと攻撃言語検出
- Authors: Mithun Das, Somnath Banerjee, Punyajoy Saha, Animesh Mukherjee
- Abstract要約: 我々は、5Kの実際のツイートと5Kのロマンティックなベンガルツイートからなる10Kのベンガルポストの注釈付きデータセットを開発する。
このような憎しみのあるポストの分類のためのベースラインモデルをいくつか実装する。
また、分類性能を高めるための言語間移動機構についても検討する。
- 参考スコア(独自算出の注目度): 5.765076125746209
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social media often serves as a breeding ground for various hateful and
offensive content. Identifying such content on social media is crucial due to
its impact on the race, gender, or religion in an unprejudiced society.
However, while there is extensive research in hate speech detection in English,
there is a gap in hateful content detection in low-resource languages like
Bengali. Besides, a current trend on social media is the use of Romanized
Bengali for regular interactions. To overcome the existing research's
limitations, in this study, we develop an annotated dataset of 10K Bengali
posts consisting of 5K actual and 5K Romanized Bengali tweets. We implement
several baseline models for the classification of such hateful posts. We
further explore the interlingual transfer mechanism to boost classification
performance. Finally, we perform an in-depth error analysis by looking into the
misclassified posts by the models. While training actual and Romanized datasets
separately, we observe that XLM-Roberta performs the best. Further, we witness
that on joint training and few-shot training, MuRIL outperforms other models by
interpreting the semantic expressions better. We make our code and dataset
public for others.
- Abstract(参考訳): ソーシャルメディアは、様々な憎しみや不快なコンテンツの繁殖地として機能することが多い。
このようなコンテンツをソーシャルメディア上で特定することは、偏見のない社会における人種、性別、宗教への影響から非常に重要である。
しかし、英語のヘイトスピーチ検出には広範な研究があるが、ベンガル語のような低リソース言語ではヘイトフルなコンテンツ検出のギャップがある。
また、ソーシャルメディアにおける現在のトレンドは、通常の対話にロマタイズド・ベンガルの使用である。
既存の研究の限界を克服するため,本研究では,5K実ツイートと5Kロマン化ベンガルツイートからなる10Kベンガルポストの注釈付きデータセットを開発した。
このような憎しみのあるポストの分類のためのベースラインモデルをいくつか実装する。
さらに,言語間伝達機構を探索し,分類性能を向上させる。
最後に,モデルによる誤分類ポストを探索し,詳細な誤差解析を行う。
実際のデータセットとローマ化データセットを個別にトレーニングしながら、XLM-Robertaが最善を尽くすのを観察する。
さらに,共同訓練や数発の訓練では,意味表現をよりよく解釈し,他のモデルよりも優れていた。
コードとデータセットを公開しています。
関連論文リスト
- Analysis and Detection of Multilingual Hate Speech Using Transformer
Based Deep Learning [7.332311991395427]
ヘイトスピーチの普及に伴い,NLPタスクとしての自動検出の需要が高まっている。
本研究では、Twitter、Facebook、WhatsApp、Instagramなどのソーシャルメディアにおけるヘイトスピーチを検出するために、トランスフォーマーベースのモデルを提案する。
金の標準データセットは、著名な研究者Zeerak Talat、Sara Tonelli、Melanie Siegel、Rezaul Karimから収集された。
ヘイトスピーチ検出のための提案されたモデルの成功率は、ベンガルデータセットの精度の高い既存のベースラインや最先端モデルよりも高く、英語では89%、ドイツ語では91%である。
論文 参考訳(メタデータ) (2024-01-19T20:40:23Z) - Understanding writing style in social media with a supervised
contrastively pre-trained transformer [57.48690310135374]
オンラインソーシャルネットワークは、ヘイトスピーチから偽情報の拡散まで、有害な行動の場として機能している。
本稿では, 4.5 x 106テキストの公開資料から得られた大規模コーパスに基づいて学習したStyle Transformer for Authorship Representations (STAR)を紹介する。
512個のトークンからなる8つのドキュメントからなるサポートベースを使用して、著者を最大1616人の著者のセットから、少なくとも80%の精度で識別することができる。
論文 参考訳(メタデータ) (2023-10-17T09:01:17Z) - Exploring Cross-Cultural Differences in English Hate Speech Annotations: From Dataset Construction to Analysis [44.17106903728264]
ほとんどのヘイトスピーチデータセットは、単一の言語における文化的多様性を無視している。
そこで本研究では,CRoss文化の英語Hate音声データセットであるCREHateを紹介する。
CREHateのポストの56.2%のみが全国でコンセンサスを達成しており、ペアのラベル差が最も高いのは26%である。
論文 参考訳(メタデータ) (2023-08-31T13:14:47Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Bangla hate speech detection on social media using attention-based
recurrent neural network [2.1349209400003932]
この記事では、Facebookページ上のユーザのBengaliコメントを分類するために、NLPで人気のツールであるエンコーダデコーダベースの機械学習モデルを提案する。
7つの異なるカテゴリーのヘイトスピーチからなる7,425のBengaliコメントのデータセットを使用して、モデルをトレーニングし、評価した。
3つのエンコーダデコーダアルゴリズムのうち、アテンションベースのデコーダが最も精度が高い(77%)。
論文 参考訳(メタデータ) (2022-03-31T03:31:53Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Factorization of Fact-Checks for Low Resource Indian Languages [44.94080515860928]
FactDRILは、インドの地域言語のための最初の大規模多言語ファクトチェックデータセットです。
本データセットは英語9,058サンプル,ヒンディー語5,155サンプルからなり,残りの8,222サンプルは様々な地域言語に分布する。
このデータセットは貴重なリソースであり、低リソース言語での偽ニュースの拡散と戦う出発点となると期待しています。
論文 参考訳(メタデータ) (2021-02-23T16:47:41Z) - Evaluation of Deep Learning Models for Hostility Detection in Hindi Text [2.572404739180802]
ヒンディー語における敵対的テキスト検出手法を提案する。
提案手法は、Constraint@AAAI 2021 Hindiホスト性検出データセットで評価される。
この多ラベル分類問題に対して,CNN,LSTM,BERTに基づく深層学習手法のホストを評価した。
論文 参考訳(メタデータ) (2021-01-11T19:10:57Z) - Hate Speech detection in the Bengali language: A dataset and its
baseline evaluation [0.8793721044482612]
本稿では,クラウドソーシングによってタグ付けされ,専門家によって検証された3万のユーザコメントのデータセットを提案する。
コメントはすべてYouTubeとFacebookのコメントセクションから収集され、7つのカテゴリに分類される。
合計50人の注釈家が各コメントに3回注釈を付け、多数決が最終注釈として採決された。
論文 参考訳(メタデータ) (2020-12-17T15:53:54Z) - Classification Benchmarks for Under-resourced Bengali Language based on
Multichannel Convolutional-LSTM Network [3.0168410626760034]
われわれはBengFastTextという2億5000万記事をベースに、これまでで最大のベンガル語埋め込みモデルを構築している。
単語の埋め込みを多チャンネル畳み込み-LSTMネットワークに組み込んで、さまざまなタイプのヘイトスピーチ、文書分類、感情分析を予測する。
論文 参考訳(メタデータ) (2020-04-11T22:17:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。