論文の概要: A Weakly Supervised Classifier and Dataset of White Supremacist Language
- arxiv url: http://arxiv.org/abs/2306.15732v1
- Date: Tue, 27 Jun 2023 18:19:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 17:04:36.020791
- Title: A Weakly Supervised Classifier and Dataset of White Supremacist Language
- Title(参考訳): 白人至上主義言語の弱い教師付き分類器とデータセット
- Authors: Michael Miller Yoder, Ahmad Diab, David West Brown, Kathleen M. Carley
- Abstract要約: 白人至上主義の言語を検出するためのデータセットと分類器を提案する。
我々の弱教師付き分類器は、中立的および反人種差別的なデータと組み合わせた、明確に白人至上主義的ドメインからの大量のテキストデータセットに基づいて訓練されている。
- 参考スコア(独自算出の注目度): 6.893512627479197
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a dataset and classifier for detecting the language of white
supremacist extremism, a growing issue in online hate speech. Our weakly
supervised classifier is trained on large datasets of text from explicitly
white supremacist domains paired with neutral and anti-racist data from similar
domains. We demonstrate that this approach improves generalization performance
to new domains. Incorporating anti-racist texts as counterexamples to white
supremacist language mitigates bias.
- Abstract(参考訳): オンラインヘイトスピーチにおいて,白人至上主義的過激主義の言語を検出するためのデータセットと分類器を提案する。
我々の弱い教師付き分類器は、明らかに白人至上主義的なドメインからの大量のテキストデータセットで訓練され、同様のドメインの中立的および反人種差別的データと組み合わせられている。
このアプローチが新しいドメインへの一般化性能を向上させることを実証する。
反人種差別的テキストを白人至上主義言語に対する反例として組み込むことは、偏見を和らげる。
関連論文リスト
- Collapsed Language Models Promote Fairness [88.48232731113306]
偏りのある言語モデルはトークン表現と単語埋め込みの間に崩壊したアライメントを示す。
我々は,幅広い脱バイアス法において,公平性を効果的に向上する原理的な微調整法を設計する。
論文 参考訳(メタデータ) (2024-10-06T13:09:48Z) - LAHM : Large Annotated Dataset for Multi-Domain and Multilingual Hate
Speech Identification [2.048680519934008]
本稿では,英語,ヒンディー語,アラビア語,フランス語,ドイツ語,スペイン語の多言語ヘイトスピーチ分析データセットを提案する。
本論文は、これらの6言語において、これらの5つの広い領域において、様々な種類のヘイトスピーチを識別する問題に最初に対処するものである。
論文 参考訳(メタデータ) (2023-04-03T12:03:45Z) - On The Robustness of Offensive Language Classifiers [10.742675209112623]
ソーシャルメディアプラットフォームは、ヘイトフル、人種差別、その他の攻撃的スピーチを大規模に戦うために、機械学習ベースの攻撃的言語分類システムをデプロイしている。
我々は、より巧妙な敵対的攻撃に対して、最先端の攻撃的言語分類器の堅牢性について検討する。
以上の結果から,攻撃的言語分類器の精度は50%以上低下し,修正文の可読性や意味も維持できることがわかった。
論文 参考訳(メタデータ) (2022-03-21T20:44:30Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Reducing Target Group Bias in Hate Speech Detectors [56.94616390740415]
大規模な公開データセットでトレーニングされたテキスト分類モデルは、いくつかの保護されたグループで大幅に性能が低下する可能性がある。
本稿では,トークンレベルのヘイトセンスの曖昧さを実現し,トークンのヘイトセンスの表現を検知に利用することを提案する。
論文 参考訳(メタデータ) (2021-12-07T17:49:34Z) - Mitigating Racial Biases in Toxic Language Detection with an
Equity-Based Ensemble Framework [9.84413545378636]
最近の研究では、アフリカ系アメリカ人の英語を書いているユーザーに対する人種的偏見が、人気のある有毒な言語データセットに存在することが示されている。
これらのバイアスの発生源をよりよく理解するために、さらに説明的公正度指標を提案する。
提案手法は,モデルがこれらのデータセットから学習する人種的バイアスを大幅に低減することを示す。
論文 参考訳(メタデータ) (2021-09-27T15:54:05Z) - Detecting White Supremacist Hate Speech using Domain Specific Word
Embedding with Deep Learning and BERT [0.0]
白人至上主義のヘイトスピーチは、ソーシャルメディア上で最も最近観察された有害なコンテンツの一つである。
本研究では,ディープラーニングと自然言語処理技術を用いて,Twitter上での白人至上主義者のヘイトスピーチを自動的に検出する可能性について検討した。
論文 参考訳(メタデータ) (2020-10-01T12:44:24Z) - Hate Speech Detection and Racial Bias Mitigation in Social Media based
on BERT model [1.9336815376402716]
本稿では,既存の学習済み言語モデルであるBERTに基づくヘイトスピーチ検出のための伝達学習手法を提案する。
提案したモデルは、人種差別、セクシズム、憎悪、攻撃的なコンテンツをTwitter上で注釈付けした2つの公開データセット上で評価する。
論文 参考訳(メタデータ) (2020-08-14T16:47:25Z) - It's Morphin' Time! Combating Linguistic Discrimination with
Inflectional Perturbations [68.16751625956243]
完全な標準英語コーパスのみが、非標準言語的背景から少数民族を区別するためにニューラルネットワークを前提としている。
我々は、単語の屈折形態を乱して、可塑性で意味論的に類似した逆の例を作る。
論文 参考訳(メタデータ) (2020-05-09T04:01:43Z) - Adversarial Augmentation Policy Search for Domain and Cross-Lingual
Generalization in Reading Comprehension [96.62963688510035]
理解モデルを読むことは、しばしばトレーニングデータセットのニュアンスに過度に適合し、敵対的な評価に失敗する。
本稿では,複数の効果的な敵と自動データ拡張ポリシー探索手法を提案し,対角的評価に対して,読解理解モデルをより堅牢にすることを目的とする。
論文 参考訳(メタデータ) (2020-04-13T17:20:08Z) - On the Language Neutrality of Pre-trained Multilingual Representations [70.93503607755055]
語彙意味論に関して,多言語文脈埋め込みの言語中立性を直接的に検討する。
その結果、文脈埋め込みは言語ニュートラルであり、概して静的な単語型埋め込みよりも情報的であることがわかった。
本稿では,言語識別における最先端の精度に到達し,並列文の単語アライメントのための統計的手法の性能を一致させる方法について述べる。
論文 参考訳(メタデータ) (2020-04-09T19:50:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。