論文の概要: Unveiling Social Media Comments with a Novel Named Entity Recognition System for Identity Groups
- arxiv url: http://arxiv.org/abs/2405.13011v1
- Date: Mon, 13 May 2024 19:33:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-27 02:58:21.284620
- Title: Unveiling Social Media Comments with a Novel Named Entity Recognition System for Identity Groups
- Title(参考訳): アイデンティティグループのための新しい名前付きエンティティ認識システムによるソーシャルメディアコメントの公開
- Authors: Andrés Carvallo, Tamara Quiroga, Carlos Aspillaga, Marcelo Mendoza,
- Abstract要約: 我々はアイデンティティグループのための名前付きエンティティ認識(NER)システムを開発した。
我々のツールは、文が攻撃を含むかどうかを検知するだけでなく、上記のグループに対応する文トークンもタグ付けする。
ソーシャルメディアに関するケーススタディで,Facebookのコメントを注釈付けし,IDグループに言及するニュースに関連するコメントと比較し,ツールの有用性を検証した。
- 参考スコア(独自算出の注目度): 2.5849042763002426
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While civilized users employ social media to stay informed and discuss daily occurrences, haters perceive these platforms as fertile ground for attacking groups and individuals. The prevailing approach to counter this phenomenon involves detecting such attacks by identifying toxic language. Effective platform measures aim to report haters and block their network access. In this context, employing hate speech detection methods aids in identifying these attacks amidst vast volumes of text, which are impossible for humans to analyze manually. In our study, we expand upon the usual hate speech detection methods, typically based on text classifiers, to develop a Named Entity Recognition (NER) System for Identity Groups. To achieve this, we created a dataset that allows extending a conventional NER to recognize identity groups. Consequently, our tool not only detects whether a sentence contains an attack but also tags the sentence tokens corresponding to the mentioned group. Results indicate that the model performs competitively in identifying groups with an average f1-score of 0.75, outperforming in identifying ethnicity attack spans with an f1-score of 0.80 compared to other identity groups. Moreover, the tool shows an outstanding generalization capability to minority classes concerning sexual orientation and gender, achieving an f1-score of 0.77 and 0.72, respectively. We tested the utility of our tool in a case study on social media, annotating and comparing comments from Facebook related to news mentioning identity groups. The case study reveals differences in the types of attacks recorded, effectively detecting named entities related to the categories of the analyzed news articles. Entities are accurately tagged within their categories, with a negligible error rate for inter-category tagging.
- Abstract(参考訳): 文明化されたユーザーはソーシャルメディアを利用して日常的な出来事を知らせ、議論する一方で、憎しみはこれらのプラットフォームを集団や個人を攻撃するための肥大した基盤として捉えている。
この現象に対抗するための一般的なアプローチは、有害な言語を特定することによってそのような攻撃を検出することである。
効果的なプラットフォーム対策は、ハザードを報告し、ネットワークアクセスをブロックすることを目的としている。
この文脈では、ヘイトスピーチ検出手法を用いることで、人間が手動で分析することは不可能な大量のテキストの中で、これらの攻撃を識別するのに役立つ。
本研究では,テキスト分類器をベースとした一般的なヘイトスピーチ検出手法を拡張し,識別グループのための名前付きエンティティ認識(NER)システムを開発した。
これを実現するために、従来のNERを拡張して識別グループを認識できるデータセットを作成しました。
その結果、このツールは、文が攻撃を含むかどうかを検知するだけでなく、上記のグループに対応する文トークンをタグ付けする。
その結果、このモデルは平均的なf1スコアが0.75の集団を識別する上で競争力を発揮しており、他のアイデンティティグループと比較すると、f1スコアが0.80の民族性攻撃の特定に優れていたことが示唆された。
さらに、性的指向と性別に関するマイノリティクラスに優れた一般化能力を示し、それぞれ0.77と0.72のf1スコアを達成した。
ソーシャルメディアに関するケーススタディで,Facebookのコメントを注釈付けし,IDグループに言及するニュースに関連するコメントと比較し,ツールの有用性を検証した。
ケーススタディでは、記録された攻撃の種類の違いを明らかにし、分析されたニュース記事のカテゴリに関連する名前付きエンティティを効果的に検出する。
エンティティはカテゴリ内で正確にタグ付けされ、カテゴリ間のタグ付けには無視できるエラー率がある。
関連論文リスト
- PRAT: PRofiling Adversarial aTtacks [52.693011665938734]
PRofiling Adversarial aTacks (PRAT) の新たな問題点について紹介する。
敵対的な例として、PRATの目的は、それを生成するのに使用される攻撃を特定することである。
AIDを用いてPRATの目的のための新しいフレームワークを考案する。
論文 参考訳(メタデータ) (2023-09-20T07:42:51Z) - How Hate Speech Varies by Target Identity: A Computational Analysis [5.746505534720595]
ヘイトスピーチが対象とするアイデンティティに応じて体系的にどう変化するかを検討する。
対象のカテゴリーは、対象のアイデンティティグループの相対的な社会的力よりも、ヘイトスピーチの言語に強い影響を及ぼすと考えられる。
論文 参考訳(メタデータ) (2022-10-19T19:06:23Z) - Going Extreme: Comparative Analysis of Hate Speech in Parler and Gab [2.487445341407889]
われわれはParler上でのヘイトスピーチの大規模分析を行った。
分類精度を改善するために10K Parlerの投稿に注釈を付けた。
ヘイト・モンジャーはパラーのアクティブユーザー数の16.1%を占める。
論文 参考訳(メタデータ) (2022-01-27T19:29:17Z) - Identifying Adversarial Attacks on Text Classifiers [32.958568467774704]
本稿では,その生成にどの方法が使われたかを決定するために,逆テキストを解析する。
最初のコントリビューションは、攻撃検出とラベル付けのための広範なデータセットです。
第2のコントリビューションとして、このデータセットを使用して、攻撃識別のための多くの分類器を開発し、ベンチマークします。
論文 参考訳(メタデータ) (2022-01-21T06:16:04Z) - Learning-based Hybrid Local Search for the Hard-label Textual Attack [53.92227690452377]
我々は,攻撃者が予測ラベルにのみアクセス可能な,滅多に調査されていないが厳格な設定,すなわちハードラベル攻撃を考える。
そこで本研究では,Learning-based Hybrid Local Search (LHLS)アルゴリズムという,新たなハードラベル攻撃を提案する。
我々のLHLSは、攻撃性能と敵の品質に関する既存のハードラベル攻撃を著しく上回っている。
論文 参考訳(メタデータ) (2022-01-20T14:16:07Z) - Reducing Target Group Bias in Hate Speech Detectors [56.94616390740415]
大規模な公開データセットでトレーニングされたテキスト分類モデルは、いくつかの保護されたグループで大幅に性能が低下する可能性がある。
本稿では,トークンレベルのヘイトセンスの曖昧さを実現し,トークンのヘイトセンスの表現を検知に利用することを提案する。
論文 参考訳(メタデータ) (2021-12-07T17:49:34Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Detecting Abusive Albanian [5.092028049119383]
scShajは、さまざまなソーシャルメディアプラットフォーム上のユーザーテキストコンテンツから構築されたヘイトスピーチと攻撃的なスピーチのための注釈付きデータセットである。
データセットは3つの異なる分類モデルを用いてテストされ、最も良いものは攻撃言語を識別するためのF1スコア0.77を達成することである。
論文 参考訳(メタデータ) (2021-07-28T18:47:32Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z) - Contextualizing Hate Speech Classifiers with Post-hoc Explanation [26.044033793878683]
ヘイトスピーチ分類器は、攻撃的または偏見的な方法で「ゲイ」や「ブラック」のようなグループ識別子が使用されているかどうかを決定するのに苦労する。
本稿では,これらの説明に基づく新たな正規化手法を提案する。
提案手法は, ドメイン外データに対する偽陽性を制限することによって, ベースラインを改良した。
論文 参考訳(メタデータ) (2020-05-05T18:56:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。