論文の概要: Lone Pine at SemEval-2021 Task 5: Fine-Grained Detection of Hate Speech
Using BERToxic
- arxiv url: http://arxiv.org/abs/2104.03506v1
- Date: Thu, 8 Apr 2021 04:46:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 23:51:20.637834
- Title: Lone Pine at SemEval-2021 Task 5: Fine-Grained Detection of Hate Speech
Using BERToxic
- Title(参考訳): SemEval-2021 Task 5: BERToxic を用いたヘイトスピーチの微粒化検出
- Authors: Yakoob Khan, Weicheng Ma, Soroush Vosoughi
- Abstract要約: 本稿では, 有害スパン検出問題に対するアプローチについて述べる。
BERToxicは、事前に訓練されたBERTモデルを微調整して、与えられたテキスト中の有毒なテキストスパンを見つけるシステムである。
我々のシステムは、提供されたベースラインを著しく上回り、f1-score 0.683を達成し、91チーム中17位にlone pineを配置した。
- 参考スコア(独自算出の注目度): 2.4815579733050153
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes our approach to the Toxic Spans Detection problem
(SemEval-2021 Task 5). We propose BERToxic, a system that fine-tunes a
pre-trained BERT model to locate toxic text spans in a given text and utilizes
additional post-processing steps to refine the boundaries. The post-processing
steps involve (1) labeling character offsets between consecutive toxic tokens
as toxic and (2) assigning a toxic label to words that have at least one token
labeled as toxic. Through experiments, we show that these two post-processing
steps improve the performance of our model by 4.16% on the test set. We also
studied the effects of data augmentation and ensemble modeling strategies on
our system. Our system significantly outperformed the provided baseline and
achieved an F1-score of 0.683, placing Lone Pine in the 17th place out of 91
teams in the competition. Our code is made available at
https://github.com/Yakoob-Khan/Toxic-Spans-Detection
- Abstract(参考訳): 本稿では,Toxic Spans Detection problem (SemEval-2021 Task 5)について述べる。
提案するBERToxicは,所定のテキスト中の有毒なテキストスパンを見つけるために事前訓練されたBERTモデルを微調整し,追加の処理後ステップを用いて境界を洗練させるシステムである。
1)連続する有毒トークン間の文字オフセットを有毒としてラベル付けし、(2)少なくとも1つの有毒トークンを有毒とラベルした単語に有毒ラベルを割り当てる。
実験により, この2つの処理ステップにより, テストセットの性能が4.16%向上することを示した。
また,データ拡張およびアンサンブルモデリング戦略がシステムに与える影響についても検討した。
我々のシステムは提供されたベースラインを大きく上回り、F1スコアは0.683となり、Lone Pineは91チーム中17位に入った。
私たちのコードはhttps://github.com/Yakoob-Khan/Toxic-Spans-Detectionで利用可能です。
関連論文リスト
- Toxic Subword Pruning for Dialogue Response Generation on Large Language Models [51.713448010799986]
toxPrune (textbfToxic Subword textbfPruning) を提案する。
ToxPruneは、明らかに対話応答生成のタスクにおいて、有害言語モデルNSFW-3Bを同時に改善する。
論文 参考訳(メタデータ) (2024-10-05T13:30:33Z) - Unveiling the Implicit Toxicity in Large Language Models [77.90933074675543]
大きな言語モデル(LLM)のオープンエンドネスと、その優れた機能を組み合わせることで、悪意のある使用のために悪用された場合、新たな安全性上の問題が発生する可能性がある。
LLMは、単純なゼロショットプロンプトによる検出が極めて困難である様々な暗黙的な有毒な出力を生成することができることを示す。
我々は,LLMの暗黙的毒性をさらに誘発する強化学習(RL)に基づく攻撃法を提案する。
論文 参考訳(メタデータ) (2023-11-29T06:42:36Z) - Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - ToxiSpanSE: An Explainable Toxicity Detection in Code Review Comments [4.949881799107062]
ToxiSpanSEは、ソフトウェアエンジニアリング(SE)ドメインで有害なスパンを検出する最初のツールである。
我々のモデルは、有害なクラストークンに対する0.88ドルのF1ドル、0.87の精度、および0.93のリコールで最高のスコアを得た。
論文 参考訳(メタデータ) (2023-07-07T04:55:11Z) - Detoxifying Text with MaRCo: Controllable Revision with Experts and
Anti-Experts [57.38912708076231]
本稿では,制御可能な生成法とテキスト書き直し法を組み合わせた解毒アルゴリズムMARCoを紹介する。
MaRCoは、毒性のないLMと毒性のあるLMの下の可能性を利用して、マスクすべき候補単語を見つけ、置換する可能性がある。
我々は,いくつかの微妙な毒性とマイクロアグレスデータセットについて評価し,自動測定値の基準値を上回るだけでなく,MARCoの書き直しは人間による評価で2.1ドル以上好まれることを示した。
論文 参考訳(メタデータ) (2022-12-20T18:50:00Z) - Cisco at SemEval-2021 Task 5: What's Toxic?: Leveraging Transformers for
Multiple Toxic Span Extraction from Online Comments [1.332560004325655]
本稿では,SemEval-2021 Task 5: Toxic Spans DetectionのためのチームCiscoによって提案されたシステムについて述べる。
我々は主に、シーケンスタグ付けアプローチと依存性解析アプローチの2つの方法でこの問題に取り組みます。
このアプローチにおける最高のパフォーマンスアーキテクチャもまた、F1スコア0.6922で、全体として最高のパフォーマンスアーキテクチャであることを証明しました。
論文 参考訳(メタデータ) (2021-05-28T16:27:49Z) - UoT-UWF-PartAI at SemEval-2021 Task 5: Self Attention Based Bi-GRU with
Multi-Embedding Representation for Toxicity Highlighter [3.0586855806896045]
本稿では,トークンのマルチエンベディング表現を持つ自己アテンション型ゲートリカレントユニットを提案する。
実験の結果,提案手法はスパントークンの検出に非常に有効であることがわかった。
論文 参考訳(メタデータ) (2021-04-27T13:18:28Z) - UIT-ISE-NLP at SemEval-2021 Task 5: Toxic Spans Detection with
BiLSTM-CRF and Toxic Bert Comment Classification [0.0]
このタスクは、投稿全体で有毒な単語を識別するためのモデルを構築することを目指しています。
BiLSTM-CRFモデルとToxic Bert Classificationを組み合わせて検出モデルのトレーニングを行います。
私たちのモデルは、Toxic Spans DetectionタスクでF1スコアで62.23%を達成した。
論文 参考訳(メタデータ) (2021-04-20T16:32:56Z) - UIT-E10dot3 at SemEval-2021 Task 5: Toxic Spans Detection with Named
Entity Recognition and Question-Answering Approaches [0.32228025627337864]
この課題は、与えられたテキストから有害なスパンを抽出することを競合者に求め、実験前にその構造を理解するためにいくつかの分析を行った。
この課題は、spairCyライブラリによるエンティティ認識と、ToxicBERTと組み合わせたRoBERTaによるQCon-Answeringという2つのアプローチで解決し、前者は66.99%のF1スコアを獲得している。
論文 参考訳(メタデータ) (2021-04-15T11:07:56Z) - Challenges in Automated Debiasing for Toxic Language Detection [81.04406231100323]
バイアスド・アソシエーションは、有害な言語を検出するための分類器の開発において課題となっている。
我々は最近,有害な言語検出に適用されたテキスト分類データセットとモデルに対するデバイアス法について検討した。
我々の焦点は語彙(例えば、誓い言葉、スラー、アイデンティティの言及)と方言マーカー(特にアフリカ系アメリカ人の英語)である。
論文 参考訳(メタデータ) (2021-01-29T22:03:17Z) - RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language
Models [93.151822563361]
事前訓練されたニューラルネットワークモデル(LM)は、安全なデプロイメントを妨げる人種差別的、性差別的、その他の有害な言語を生成する傾向にある。
本研究では, 予め訓練したLMが有害な言語を生成できる範囲と, 有害な変性を防止するための制御可能なテキスト生成アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2020-09-24T03:17:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。