論文の概要: Cross-Domain Toxic Spans Detection
- arxiv url: http://arxiv.org/abs/2306.09642v1
- Date: Fri, 16 Jun 2023 06:10:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-19 14:48:08.783966
- Title: Cross-Domain Toxic Spans Detection
- Title(参考訳): クロスドメイン毒性スパンの検出
- Authors: Stefan F. Schouten, Baran Barbarestani, Wondimagegnhue Tufa, Piek
Vossen, Ilia Markov
- Abstract要約: クロスドメイン条件下で有害なスパンを検出するための3つの方法を評価する。
本研究は,市販のレキシコンを用いた簡単な手法が,クロスドメイン設定において最適であることを示す。
- 参考スコア(独自算出の注目度): 4.197344564708033
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given the dynamic nature of toxic language use, automated methods for
detecting toxic spans are likely to encounter distributional shift. To explore
this phenomenon, we evaluate three approaches for detecting toxic spans under
cross-domain conditions: lexicon-based, rationale extraction, and fine-tuned
language models. Our findings indicate that a simple method using off-the-shelf
lexicons performs best in the cross-domain setup. The cross-domain error
analysis suggests that (1) rationale extraction methods are prone to false
negatives, while (2) language models, despite performing best for the in-domain
case, recall fewer explicitly toxic words than lexicons and are prone to
certain types of false positives. Our code is publicly available at:
https://github.com/sfschouten/toxic-cross-domain.
- Abstract(参考訳): 有害な言語の使用の動的な性質を考えると、有害なスパンを検出する自動手法は分布シフトに遭遇する可能性が高い。
この現象を解明するために,lexicon-based, rationale extraction, fine-tuned language modelの3つのクロスドメイン条件下で有毒スパンを検出する方法を検討した。
本研究は,市販のレキシコンを用いた簡単な手法が,クロスドメイン設定において最適であることを示す。
クロスドメイン誤り分析では,(1)有理抽出法は偽陰性傾向が強く,(2)言語モデルでは,ドメイン内ケースにおいて最善であるにもかかわらず,語彙よりも明らかな有毒な単語を想起し,ある種の偽陽性を生じやすいことが示唆された。
私たちのコードは、https://github.com/sfschouten/toxic-cross-domainで公開されています。
関連論文リスト
- Examining False Positives under Inference Scaling for Mathematical Reasoning [59.19191774050967]
本稿では,言語モデルにおける数学的問題解決における偽陽性解の有効性を体系的に検討する。
擬陽性が言語モデルの推論時間スケーリング行動にどのように影響するかを考察する。
論文 参考訳(メタデータ) (2025-02-10T07:49:35Z) - LADDER: Language Driven Slice Discovery and Error Rectification [16.146099639239615]
現在のクラスタリングや離散属性ベースのスライス発見メソッドは、重要な制限に直面している。
我々は,(1)不完全性に対処するために自然言語の柔軟性を活用すること,(2)LLMの潜在的テクストドメイン知識と高度な推論を用いて文を分析し,仮説を直接導出する,という制限に対処することを提案する。
厳密な評価は、ラダーがバイアスを発見し緩和する際に、既存のベースラインを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2024-07-31T14:49:35Z) - ToxiSpanSE: An Explainable Toxicity Detection in Code Review Comments [4.949881799107062]
ToxiSpanSEは、ソフトウェアエンジニアリング(SE)ドメインで有害なスパンを検出する最初のツールである。
我々のモデルは、有害なクラストークンに対する0.88ドルのF1ドル、0.87の精度、および0.93のリコールで最高のスコアを得た。
論文 参考訳(メタデータ) (2023-07-07T04:55:11Z) - Lex2Sent: A bagging approach to unsupervised sentiment analysis [0.628122931748758]
本稿では,テキストの分類方法として,Lex2Sentを提案する。
テキストを分類するために、文書埋め込みと適切な辞書の埋め込みの距離を決定するために埋め込みモデルを訓練する。
本稿では,このモデルがレキシカよりも優れており,バイナリ感情分析のタスクにおいて,高パフォーマンスな数発の微調整手法の基盤となることを示す。
論文 参考訳(メタデータ) (2022-09-26T20:49:18Z) - VLAD-VSA: Cross-Domain Face Presentation Attack Detection with
Vocabulary Separation and Adaptation [87.9994254822078]
顔提示攻撃(PAD)の場合、スプーフィングキューのほとんどは微妙で局所的な画像パターンである。
VLADアグリゲーション法は,特徴空間を局所的に分割する視覚語彙を用いて局所特徴を定量化する。
提案する語彙分離法は,語彙をドメイン共有語とドメイン固有語に分割する。
論文 参考訳(メタデータ) (2022-02-21T15:27:41Z) - Mitigating Biases in Toxic Language Detection through Invariant
Rationalization [70.36701068616367]
性別、人種、方言などの属性に対するバイアスは、毒性検出のためのほとんどのトレーニングデータセットに存在する。
本稿では,論理生成器と予測器から構成されるゲーム理論フレームワークである不変合理化(InvRat)を用いて,特定の構文パターンの素早い相関を除外することを提案する。
本手法は, 語彙属性と方言属性の両方において, 従来のデバイアス法よりも低い偽陽性率を示す。
論文 参考訳(メタデータ) (2021-06-14T08:49:52Z) - Unsupervised Out-of-Domain Detection via Pre-trained Transformers [56.689635664358256]
ドメイン外の入力は予測不能なアウトプットを引き起こし、時には破滅的な安全性の問題を引き起こす。
本研究は、教師なしのドメイン内データのみを用いて、ドメイン外サンプルを検出する問題に対処する。
検出精度を高めるために、ドメイン固有の2つの微調整手法が提案されている。
論文 参考訳(メタデータ) (2021-06-02T05:21:25Z) - OutFlip: Generating Out-of-Domain Samples for Unknown Intent Detection
with Natural Language Attack [0.5161531917413708]
OutFlipは、インドメイントレーニングデータセットのみを使用して、アウトオブドメインサンプルを自動的に生成する方法です。
ホワイトボックスの自然言語攻撃法であるHotFlipを改訂し、逆例ではなくドメイン外サンプルを生成する。
論文 参考訳(メタデータ) (2021-05-12T11:38:34Z) - Challenges in Automated Debiasing for Toxic Language Detection [81.04406231100323]
バイアスド・アソシエーションは、有害な言語を検出するための分類器の開発において課題となっている。
我々は最近,有害な言語検出に適用されたテキスト分類データセットとモデルに対するデバイアス法について検討した。
我々の焦点は語彙(例えば、誓い言葉、スラー、アイデンティティの言及)と方言マーカー(特にアフリカ系アメリカ人の英語)である。
論文 参考訳(メタデータ) (2021-01-29T22:03:17Z) - Unsupervised Domain Adaptation of a Pretrained Cross-Lingual Language
Model [58.27176041092891]
最近の研究は、大規模未ラベルテキストに対する言語間言語モデルの事前学習が、大幅な性能向上をもたらすことを示唆している。
本稿では,絡み合った事前学習した言語間表現からドメイン固有の特徴を自動的に抽出する,教師なし特徴分解手法を提案する。
提案モデルでは、相互情報推定を利用して、言語間モデルによって計算された表現をドメイン不変部分とドメイン固有部分に分解する。
論文 参考訳(メタデータ) (2020-11-23T16:00:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。