論文の概要: WLV-RIT at SemEval-2021 Task 5: A Neural Transformer Framework for
Detecting Toxic Spans
- arxiv url: http://arxiv.org/abs/2104.04630v1
- Date: Fri, 9 Apr 2021 22:52:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 09:00:57.698040
- Title: WLV-RIT at SemEval-2021 Task 5: A Neural Transformer Framework for
Detecting Toxic Spans
- Title(参考訳): WLV-RIT at SemEval-2021 Task 5: A Neural Transformer Framework for Detecting Toxic Spans
- Authors: Tharindu Ranasinghe, Diptanu Sarkar, Marcos Zampieri, Alex Ororbia
- Abstract要約: 近年,ソーシャルメディアの普及により,オンラインプラットフォーム上での有害コンテンツや攻撃コンテンツの発生が増加している。
ソーシャルメディアプラットフォームは自動検出手法の開発に取り組んでおり、この攻撃的コンテンツの混乱に対処するために人間のモデレーターを使用している。
- 参考スコア(独自算出の注目度): 2.4737119633827174
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, the widespread use of social media has led to an increase in
the generation of toxic and offensive content on online platforms. In response,
social media platforms have worked on developing automatic detection methods
and employing human moderators to cope with this deluge of offensive content.
While various state-of-the-art statistical models have been applied to detect
toxic posts, there are only a few studies that focus on detecting the words or
expressions that make a post offensive. This motivates the organization of the
SemEval-2021 Task 5: Toxic Spans Detection competition, which has provided
participants with a dataset containing toxic spans annotation in English posts.
In this paper, we present the WLV-RIT entry for the SemEval-2021 Task 5. Our
best performing neural transformer model achieves an $0.68$ F1-Score.
Furthermore, we develop an open-source framework for multilingual detection of
offensive spans, i.e., MUDES, based on transformers that detect toxic spans in
texts.
- Abstract(参考訳): 近年,ソーシャルメディアの普及により,オンラインプラットフォーム上での有害コンテンツや攻撃コンテンツの発生が増加している。
これに対し、ソーシャルメディアプラットフォームは、この攻撃的コンテンツの希薄化に対処するため、自動検出方法の開発とヒトモデレーターの活用に取り組んできた。
様々な最先端の統計モデルが有毒なポストの検出に応用されているが、攻撃的な単語や表現の検出に焦点を絞った研究はごくわずかである。
これはSemEval-2021 Task 5: Toxic Spans Detectionコンペティションの組織化を動機としている。
本稿では,SemEval-2021 Task 5のWLV-RITエントリを示す。
我々の最高性能のニューラルトランスモデルは0.68ドルF1スコアを達成する。
さらに,テキスト中の有害なスパンを検出するトランスフォーマーに基づく,攻撃的スパンの多言語検出のためのオープンソースのフレームワークを開発する。
関連論文リスト
- ToxiSpanSE: An Explainable Toxicity Detection in Code Review Comments [4.949881799107062]
ToxiSpanSEは、ソフトウェアエンジニアリング(SE)ドメインで有害なスパンを検出する最初のツールである。
我々のモデルは、有害なクラストークンに対する0.88ドルのF1ドル、0.87の精度、および0.93のリコールで最高のスコアを得た。
論文 参考訳(メタデータ) (2023-07-07T04:55:11Z) - Critical Perspectives: A Benchmark Revealing Pitfalls in PerspectiveAPI [0.0]
テキストの“有害性”を評価することを約束するツールであるJigsawのPERSPECTIVEに重点を置いています。
本稿では,新たなベンチマークであるSelected Adversarial Semantics(SASS)を提案する。
PERSPECTIVEは、多くの毒性カテゴリーにまたがって、厄介な欠点を呈している。
論文 参考訳(メタデータ) (2023-01-05T02:12:47Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Constructing Highly Inductive Contexts for Dialogue Safety through
Controllable Reverse Generation [65.48908724440047]
そこで本稿では,ある応答に条件付けされた逆コンテキストを構築するために,エンフレバース生成と呼ばれる手法を提案する。
我々は,Blender,DialoGPT,Plato2の3種類の事前訓練済み対話モデルをテストする。
論文 参考訳(メタデータ) (2022-12-04T12:23:41Z) - ToxiGen: A Large-Scale Machine-Generated Dataset for Adversarial and
Implicit Hate Speech Detection [33.715318646717385]
ToxiGenは、13の少数民族に関する274kの毒性と良心のステートメントの大規模なデータセットである。
このようにマシン生成を制御することで、ToxiGenは暗黙的に有害なテキストを大規模にカバーできる。
有毒な例の94.5%は、ヒトのアノテーターによるヘイトスピーチとしてラベル付けされている。
論文 参考訳(メタデータ) (2022-03-17T17:57:56Z) - A New Generation of Perspective API: Efficient Multilingual
Character-level Transformers [66.9176610388952]
Google JigsawのAspective APIの次期バージョンの基礎を提示する。
このアプローチの中心は、単一の多言語トークンフリーなCharformerモデルである。
静的な語彙を強制することで、さまざまな設定で柔軟性が得られます。
論文 参考訳(メタデータ) (2022-02-22T20:55:31Z) - COLD: A Benchmark for Chinese Offensive Language Detection [54.60909500459201]
COLDatasetは、37kの注釈付き文を持つ中国の攻撃的言語データセットである。
また、人気のある中国語モデルの出力攻撃性を研究するために、textscCOLDetectorを提案する。
我々の資源と分析は、中国のオンラインコミュニティを解毒し、生成言語モデルの安全性を評価することを目的としている。
論文 参考訳(メタデータ) (2022-01-16T11:47:23Z) - Cisco at SemEval-2021 Task 5: What's Toxic?: Leveraging Transformers for
Multiple Toxic Span Extraction from Online Comments [1.332560004325655]
本稿では,SemEval-2021 Task 5: Toxic Spans DetectionのためのチームCiscoによって提案されたシステムについて述べる。
我々は主に、シーケンスタグ付けアプローチと依存性解析アプローチの2つの方法でこの問題に取り組みます。
このアプローチにおける最高のパフォーマンスアーキテクチャもまた、F1スコア0.6922で、全体として最高のパフォーマンスアーキテクチャであることを証明しました。
論文 参考訳(メタデータ) (2021-05-28T16:27:49Z) - UPB at SemEval-2021 Task 5: Virtual Adversarial Training for Toxic Spans
Detection [0.7197592390105455]
Semeval-2021, Task 5 - Toxic Spans DetectionはJigsaw Unintended Biasデータセットのサブセットの新たなアノテーションに基づいている。
このタスクでは、参加者はメッセージに有害な短いコメントで文字スパンを自動的に検出しなければならなかった。
本モデルは,トランスフォーマーベースモデルの微調整過程において,半教師付き環境で仮想適応トレーニングを適用することを検討する。
論文 参考訳(メタデータ) (2021-04-17T19:42:12Z) - RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language
Models [93.151822563361]
事前訓練されたニューラルネットワークモデル(LM)は、安全なデプロイメントを妨げる人種差別的、性差別的、その他の有害な言語を生成する傾向にある。
本研究では, 予め訓練したLMが有害な言語を生成できる範囲と, 有害な変性を防止するための制御可能なテキスト生成アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2020-09-24T03:17:19Z) - Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for
Offensive Language Detection [55.445023584632175]
我々は,マルチタスク学習とBERTモデルを組み合わせた攻撃的言語検出システムを構築した。
我々のモデルは、英語のサブタスクAで91.51%のF1スコアを獲得し、これは第1位に匹敵する。
論文 参考訳(メタデータ) (2020-04-28T11:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。