論文の概要: Toxic Comments Hunter : Score Severity of Toxic Comments
- arxiv url: http://arxiv.org/abs/2203.03548v1
- Date: Tue, 15 Feb 2022 07:35:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-13 13:48:48.977748
- Title: Toxic Comments Hunter : Score Severity of Toxic Comments
- Title(参考訳): 有害コメントハンター : 有害コメントの重症度
- Authors: Zhichang Wang and Qipeng Zhu
- Abstract要約: 本実験では,有毒なコメントに関連するさまざまなデータセットを収集する。
コメントデータの特徴から,データクリーニングや特徴抽出を行う。
モデル構築に関しては,TFIDFに基づくモデルのトレーニングにトレーニングセットを使用し,Bertモデルを微調整した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The detection and identification of toxic comments are conducive to creating
a civilized and harmonious Internet environment. In this experiment, we
collected various data sets related to toxic comments. Because of the
characteristics of comment data, we perform data cleaning and feature
extraction operations on it from different angles to obtain different toxic
comment training sets. In terms of model construction, we used the training set
to train the models based on TFIDF and finetuned the Bert model separately.
Finally, we encapsulated the code into software to score toxic comments in
real-time.
- Abstract(参考訳): 有害なコメントの検出と識別は、文明的で調和のとれたインターネット環境の構築に寄与する。
本実験では,有害なコメントに関する各種データセットを収集した。
コメントデータの特徴から,異なる角度からデータクリーニングと特徴抽出操作を行い,異なる有毒なコメント学習セットを得る。
モデル構築に関しては,TFIDFに基づくモデルをトレーニングするためにトレーニングセットを使用し,Bertモデルを別々に微調整した。
最後に、コードをソフトウェアにカプセル化して、有毒なコメントをリアルタイムで収集する。
関連論文リスト
- Unlearnable Examples Detection via Iterative Filtering [84.59070204221366]
ディープニューラルネットワークは、データ中毒攻撃に弱いことが証明されている。
混合データセットから有毒なサンプルを検出することは極めて有益であり、困難である。
UE識別のための反復フィルタリング手法を提案する。
論文 参考訳(メタデータ) (2024-08-15T13:26:13Z) - ToxiSpanSE: An Explainable Toxicity Detection in Code Review Comments [4.949881799107062]
ToxiSpanSEは、ソフトウェアエンジニアリング(SE)ドメインで有害なスパンを検出する最初のツールである。
我々のモデルは、有害なクラストークンに対する0.88ドルのF1ドル、0.87の精度、および0.93のリコールで最高のスコアを得た。
論文 参考訳(メタデータ) (2023-07-07T04:55:11Z) - On the Exploitability of Instruction Tuning [103.8077787502381]
そこで本研究では,モデルの動作を変えるための命令チューニングを,相手がどのように活用できるかを検討する。
自動データ中毒パイプラインである textitAutoPoison を提案する。
結果から、AutoPoisonは、少数のデータだけを中毒することで、敵がモデルの振る舞いを変えることを可能にする。
論文 参考訳(メタデータ) (2023-06-28T17:54:04Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - A Pretrainer's Guide to Training Data: Measuring the Effects of Data
Age, Domain Coverage, Quality, & Toxicity [84.6421260559093]
この研究は、テキスト事前学習に関する文書化されていない直観を検証、定量化、公開するための最大の実験である。
以上の結果から,トレーニングデータをフィルタリングする一大ソリューションが存在しないことが示唆された。
論文 参考訳(メタデータ) (2023-05-22T15:57:53Z) - Is Your Toxicity My Toxicity? Exploring the Impact of Rater Identity on
Toxicity Annotation [1.1699472346137738]
我々は、ラッカーの自己記述されたアイデンティティが、オンラインコメントにおける毒性の注釈付け方法にどのように影響するかを研究する。
その結果、レーダのアイデンティティは、レーダがアイデンティティ関連アノテーションに対して毒性を注釈する方法において、統計的に重要な要素であることが判明した。
さまざまなレーダプールからアノテーションに関するモデルをトレーニングし、これらのモデルのスコアを複数のテストセットのコメントで比較しました。
論文 参考訳(メタデータ) (2022-05-01T16:08:48Z) - Automated Identification of Toxic Code Reviews: How Far Can We Go? [7.655225472610752]
ToxiCRは、コードレビューインタラクションのための教師付き学習ベースの毒性識別ツールである。
ToxiCRは、我々のデータセット上の既存の毒性検知器を著しく上回っている。
論文 参考訳(メタデータ) (2022-02-26T04:27:39Z) - Effect of Toxic Review Content on Overall Product Sentiment [0.0]
本研究では,Google Playストアから3つのセクターに分離された18人のプレイヤーによるレビューコメントのバランスのとれたデータセットを収集する。
個々のレビュー内容の文レベルの感情と毒性のスコアを算出した。
我々は、コメント毒性が製品全体の感情に悪影響を及ぼすが、レビュアースコアに対するメディア効果がセクターの相対評価に影響を及ぼすことを観察する。
論文 参考訳(メタデータ) (2022-01-08T16:40:38Z) - Constructive and Toxic Speech Detection for Open-domain Social Media
Comments in Vietnamese [0.32228025627337864]
本論文では,1万語のコメントで構成的,有毒な音声検出を分類するためのデータセットを作成する。
PhoBERTとしてベトナムNLPにおける最先端の転送学習モデルを用いた構造的および有毒な音声検出システムを提案する。
結果から,オンライン議論の課題を解決し,ベトナムのソーシャルメディアコメントを自動的に識別する枠組みを開発することができた。
論文 参考訳(メタデータ) (2021-03-18T08:04:12Z) - Challenges in Automated Debiasing for Toxic Language Detection [81.04406231100323]
バイアスド・アソシエーションは、有害な言語を検出するための分類器の開発において課題となっている。
我々は最近,有害な言語検出に適用されたテキスト分類データセットとモデルに対するデバイアス法について検討した。
我々の焦点は語彙(例えば、誓い言葉、スラー、アイデンティティの言及)と方言マーカー(特にアフリカ系アメリカ人の英語)である。
論文 参考訳(メタデータ) (2021-01-29T22:03:17Z) - RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language
Models [93.151822563361]
事前訓練されたニューラルネットワークモデル(LM)は、安全なデプロイメントを妨げる人種差別的、性差別的、その他の有害な言語を生成する傾向にある。
本研究では, 予め訓練したLMが有害な言語を生成できる範囲と, 有害な変性を防止するための制御可能なテキスト生成アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2020-09-24T03:17:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。