論文の概要: UIT-E10dot3 at SemEval-2021 Task 5: Toxic Spans Detection with Named
Entity Recognition and Question-Answering Approaches
- arxiv url: http://arxiv.org/abs/2104.07376v1
- Date: Thu, 15 Apr 2021 11:07:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 15:02:39.123295
- Title: UIT-E10dot3 at SemEval-2021 Task 5: Toxic Spans Detection with Named
Entity Recognition and Question-Answering Approaches
- Title(参考訳): UIT-E10dot3 at SemEval-2021 Task 5: Toxic Spans Detection with Named Entity Recognition and Question-Answering Approaches
- Authors: Phu Gia Hoang, Luan Thanh Nguyen, Kiet Van Nguyen
- Abstract要約: この課題は、与えられたテキストから有害なスパンを抽出することを競合者に求め、実験前にその構造を理解するためにいくつかの分析を行った。
この課題は、spairCyライブラリによるエンティティ認識と、ToxicBERTと組み合わせたRoBERTaによるQCon-Answeringという2つのアプローチで解決し、前者は66.99%のF1スコアを獲得している。
- 参考スコア(独自算出の注目度): 0.32228025627337864
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The increment of toxic comments on online space is causing tremendous effects
on other vulnerable users. For this reason, considerable efforts are made to
deal with this, and SemEval-2021 Task 5: Toxic Spans Detection is one of those.
This task asks competitors to extract spans that have toxicity from the given
texts, and we have done several analyses to understand its structure before
doing experiments. We solve this task by two approaches, Named Entity
Recognition with spaCy library and Question-Answering with RoBERTa combining
with ToxicBERT, and the former gains the highest F1-score of 66.99%.
- Abstract(参考訳): オンライン空間における有害なコメントの増加は、他の脆弱なユーザーに大きな影響を与えている。
このため、これに対処するためにかなりの努力がなされており、SemEval-2021 Task 5: Toxic Spans Detectionもその1つだ。
この課題は、与えられたテキストから有害なスパンを抽出することを競合者に求め、実験前にその構造を理解するためにいくつかの分析を行った。
本稿では,この課題を,paCyライブラリを用いた名前付きエンティティ認識と,ToxicBERTと組み合わせたRoBERTaによる質問応答という2つのアプローチで解決する。
関連論文リスト
- Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - Collaborative Anomaly Detection [66.51075412012581]
本研究では,タスク間の相関関係を埋め込むことで,全てのタスクを共同で学習するための協調的異常検出(CAD)を提案する。
条件密度推定と条件確率比推定を用いてCADを探索する。
タスク埋め込みモデルを学ぶために、前もって少数のタスクを選択し、それを使ってタスク埋め込みをウォームスタートさせることは有益である。
論文 参考訳(メタデータ) (2022-09-20T18:01:07Z) - Toxicity Detection can be Sensitive to the Conversational Context [64.28043776806213]
2種類の毒性ラベルを持つ1万のポストのデータセットを構築し、公開します。
また,新たな課題である文脈感度推定を導入し,コンテキストも考慮された場合,毒性が変化すると認識された投稿を識別することを目的とした。
論文 参考訳(メタデータ) (2021-11-19T13:57:26Z) - Cisco at SemEval-2021 Task 5: What's Toxic?: Leveraging Transformers for
Multiple Toxic Span Extraction from Online Comments [1.332560004325655]
本稿では,SemEval-2021 Task 5: Toxic Spans DetectionのためのチームCiscoによって提案されたシステムについて述べる。
我々は主に、シーケンスタグ付けアプローチと依存性解析アプローチの2つの方法でこの問題に取り組みます。
このアプローチにおける最高のパフォーマンスアーキテクチャもまた、F1スコア0.6922で、全体として最高のパフォーマンスアーキテクチャであることを証明しました。
論文 参考訳(メタデータ) (2021-05-28T16:27:49Z) - UoT-UWF-PartAI at SemEval-2021 Task 5: Self Attention Based Bi-GRU with
Multi-Embedding Representation for Toxicity Highlighter [3.0586855806896045]
本稿では,トークンのマルチエンベディング表現を持つ自己アテンション型ゲートリカレントユニットを提案する。
実験の結果,提案手法はスパントークンの検出に非常に有効であることがわかった。
論文 参考訳(メタデータ) (2021-04-27T13:18:28Z) - UIT-ISE-NLP at SemEval-2021 Task 5: Toxic Spans Detection with
BiLSTM-CRF and Toxic Bert Comment Classification [0.0]
このタスクは、投稿全体で有毒な単語を識別するためのモデルを構築することを目指しています。
BiLSTM-CRFモデルとToxic Bert Classificationを組み合わせて検出モデルのトレーニングを行います。
私たちのモデルは、Toxic Spans DetectionタスクでF1スコアで62.23%を達成した。
論文 参考訳(メタデータ) (2021-04-20T16:32:56Z) - Lone Pine at SemEval-2021 Task 5: Fine-Grained Detection of Hate Speech
Using BERToxic [2.4815579733050153]
本稿では, 有害スパン検出問題に対するアプローチについて述べる。
BERToxicは、事前に訓練されたBERTモデルを微調整して、与えられたテキスト中の有毒なテキストスパンを見つけるシステムである。
我々のシステムは、提供されたベースラインを著しく上回り、f1-score 0.683を達成し、91チーム中17位にlone pineを配置した。
論文 参考訳(メタデータ) (2021-04-08T04:46:14Z) - HLE-UPC at SemEval-2021 Task 5: Multi-Depth DistilBERT for Toxic Spans
Detection [0.0]
このタスクの目的は、テキストを有害にするスパンを検出することである。
毒性は、必ずしも侮辱や悪行のような単一の言葉からではなく、個々に有害でないかもしれない言葉によって形成される表現全体から来ることもある。
本研究では, 異なる層からの埋め込みを用いた多層ディチルベルトモデルを用いて, 最終毒性を推定する効果について検討した。
論文 参考訳(メタデータ) (2021-04-01T17:37:38Z) - RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language
Models [93.151822563361]
事前訓練されたニューラルネットワークモデル(LM)は、安全なデプロイメントを妨げる人種差別的、性差別的、その他の有害な言語を生成する傾向にある。
本研究では, 予め訓練したLMが有害な言語を生成できる範囲と, 有害な変性を防止するための制御可能なテキスト生成アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2020-09-24T03:17:19Z) - CO-Search: COVID-19 Information Retrieval with Semantic Search, Question
Answering, and Abstractive Summarization [53.67205506042232]
CO-Searchは、新型コロナウイルスの文献上の複雑なクエリを処理するように設計された、レトリバーランサーセマンティック検索エンジンである。
ドメイン固有の比較的限られたデータセットを考慮し、文書の段落と引用の2部グラフを生成する。
TREC-COVID情報検索課題のデータに基づいて,本システムの評価を行った。
論文 参考訳(メタデータ) (2020-06-17T01:32:48Z) - Filtering before Iteratively Referring for Knowledge-Grounded Response
Selection in Retrieval-Based Chatbots [56.52403181244952]
本稿では,FIRE(Iteratively Referring)の前にフィルタリングという手法を提案する。
FIREはPERSONA-CHATデータセットにおいて,2.8%,4.1%以上のマージンで従来の手法よりも優れていた。
また、知識基盤プロセスの可視化により、FIREはより解釈可能であることを示す。
論文 参考訳(メタデータ) (2020-04-30T02:27:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。