論文の概要: Overview of the HASOC Subtrack at FIRE 2023: Identification of Tokens
Contributing to Explicit Hate in English by Span Detection
- arxiv url: http://arxiv.org/abs/2311.09834v1
- Date: Thu, 16 Nov 2023 12:01:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 14:16:08.685187
- Title: Overview of the HASOC Subtrack at FIRE 2023: Identification of Tokens
Contributing to Explicit Hate in English by Span Detection
- Title(参考訳): FIRE 2023におけるHASOCサブトラックの概要:スパン検出による英語の明示的ヘイトに寄与するトークンの同定
- Authors: Sarah Masud, Mohammad Aflah Khan, Md. Shad Akhtar, Tanmoy Chakraborty
- Abstract要約: 反応的に、ブラックボックスモデルを使ってヘイトフルコンテンツを特定すると、投稿が自動的にヘイトフルであるとフラグ付けされた理由について、ユーザーを混乱させる可能性がある。
ポストが公にされる前に、リフレージングを提案することで、積極的な緩和が達成できる。
- 参考スコア(独自算出の注目度): 40.10513344092731
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As hate speech continues to proliferate on the web, it is becoming
increasingly important to develop computational methods to mitigate it.
Reactively, using black-box models to identify hateful content can perplex
users as to why their posts were automatically flagged as hateful. On the other
hand, proactive mitigation can be achieved by suggesting rephrasing before a
post is made public. However, both mitigation techniques require information
about which part of a post contains the hateful aspect, i.e., what spans within
a text are responsible for conveying hate. Better detection of such spans can
significantly reduce explicitly hateful content on the web. To further
contribute to this research area, we organized HateNorm at HASOC-FIRE 2023,
focusing on explicit span detection in English Tweets. A total of 12 teams
participated in the competition, with the highest macro-F1 observed at 0.58.
- Abstract(参考訳): ウェブ上でヘイトスピーチが増加し続けており、それを緩和する計算方法を開発することがますます重要になっている。
反応的に、ヘイトフルなコンテンツを特定するためにブラックボックスモデルを使用することで、投稿がヘイトフルであると自動的にフラグを付ける理由をユーザーに混乱させる可能性がある。
一方で、投稿の公開前にリプレースを提案することで、積極的な緩和を図ることができる。
しかし、どちらの緩和技術も、投稿のどの部分が憎悪の側面を含んでいるか、すなわち、テキスト内のどの範囲が憎悪を伝えるかに関する情報を必要としている。
このようなスパンのより良い検出は、Web上で明らかに憎しみのあるコンテンツを著しく減少させる。
HASOC-FIRE 2023でHateNormを組織し、英語のつぶやきにおける明示的なスパン検出に焦点を当てた。
合計12チームが参加し、マクロF1は0.58で観測された。
関連論文リスト
- HCDIR: End-to-end Hate Context Detection, and Intensity Reduction model
for online comments [2.162419921663162]
ソーシャルメディア投稿において,Hate Context Detection と Hate Intensity Reduction のための新しいエンドツーエンドモデル HCDIR を提案する。
我々は、ヘイトフルコメントを検出するために、いくつかの事前訓練された言語モデルを微調整し、最も優れたヘイトフルコメント検出モデルを確認した。
論文 参考訳(メタデータ) (2023-12-20T17:05:46Z) - Understanding writing style in social media with a supervised
contrastively pre-trained transformer [57.48690310135374]
オンラインソーシャルネットワークは、ヘイトスピーチから偽情報の拡散まで、有害な行動の場として機能している。
本稿では, 4.5 x 106テキストの公開資料から得られた大規模コーパスに基づいて学習したStyle Transformer for Authorship Representations (STAR)を紹介する。
512個のトークンからなる8つのドキュメントからなるサポートベースを使用して、著者を最大1616人の著者のセットから、少なくとも80%の精度で識別することができる。
論文 参考訳(メタデータ) (2023-10-17T09:01:17Z) - CoSyn: Detecting Implicit Hate Speech in Online Conversations Using a
Context Synergized Hyperbolic Network [52.85130555886915]
CoSynは、オンライン会話における暗黙のヘイトスピーチを検出するために、ユーザと会話のコンテキストを明示的に組み込んだ、コンテキスト中心のニューラルネットワークである。
我々は、CoSynが、1.24%から57.8%の範囲で絶対的に改善された暗黙のヘイトスピーチを検出することで、我々のベースラインを全て上回っていることを示す。
論文 参考訳(メタデータ) (2023-03-02T17:30:43Z) - Assessing the impact of contextual information in hate speech detection [0.48369513656026514]
我々は,Twitter上のメディアからのニュース投稿に対するユーザの反応に基づいた,文脈的ヘイトスピーチ検出のための新しいコーパスを提供する。
このコーパスはリオプラテンセ方言のスペイン語で収集され、新型コロナウイルスのパンデミックに関連するヘイトスピーチに焦点を当てている。
論文 参考訳(メタデータ) (2022-10-02T09:04:47Z) - Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language [76.58220021791955]
本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
論文 参考訳(メタデータ) (2022-03-04T15:59:06Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Nipping in the Bud: Detection, Diffusion and Mitigation of Hate Speech
on Social Media [21.47216483704825]
本稿では,自動ヘイト緩和システムの構築を妨げる方法論的課題について述べる。
ソーシャルメディア上でのヘイトスピーチの拡散を制限するための一連のソリューションについて論じる。
論文 参考訳(メタデータ) (2022-01-04T03:44:46Z) - Unsupervised Domain Adaptation for Hate Speech Detection Using a Data
Augmentation Approach [6.497816402045099]
ヘイトスピーチ検出のためのラベル付きデータを拡張するための教師なし領域適応手法を提案する。
精度/リコール曲線の領域を最大42%改善し,278%改善した。
論文 参考訳(メタデータ) (2021-07-27T15:01:22Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z) - Generating Counter Narratives against Online Hate Speech: Data and
Strategies [21.098614110697184]
本稿では,憎悪に対する回答を効果的に収集する方法について検討する。
銀データ生成には GPT-2 などの大規模教師なし言語モデルを用いる。
最高のアノテーション戦略/神経アーキテクチャは、専門家のバリデーション/ポスト編集の前にデータフィルタリングに使用できる。
論文 参考訳(メタデータ) (2020-04-08T19:35:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。