論文の概要: Redefining Toxicity: An Objective and Context-Aware Approach for Stress-Level-Based Detection
- arxiv url: http://arxiv.org/abs/2503.16072v1
- Date: Thu, 20 Mar 2025 12:09:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:36:08.690330
- Title: Redefining Toxicity: An Objective and Context-Aware Approach for Stress-Level-Based Detection
- Title(参考訳): 毒性の再定義:ストレスレベル検出のための客観的かつコンテキスト認識アプローチ
- Authors: Sergey Berezin, Reza Farahbakhsh, Noel Crespi,
- Abstract要約: 本研究は, 毒性検出のための新しい, 客観的, コンテキスト認識の枠組みを紹介する。
我々は、フレームワークの一部として、新しい定義、メートル法、トレーニングアプローチを提案し、その有効性を実証する。
- 参考スコア(独自算出の注目度): 1.9424018922013224
- License:
- Abstract: The fundamental problem of toxicity detection lies in the fact that the term "toxicity" is ill-defined. Such uncertainty causes researchers to rely on subjective and vague data during model training, which leads to non-robust and inaccurate results, following the 'garbage in - garbage out' paradigm. This study introduces a novel, objective, and context-aware framework for toxicity detection, leveraging stress levels as a key determinant of toxicity. We propose new definition, metric and training approach as a parts of our framework and demonstrate it's effectiveness using a dataset we collected.
- Abstract(参考訳): 毒性検出の根本的な問題は「毒性」という言葉が未定義であるという事実にある。
このような不確実性は、モデルトレーニングの間、研究者が主観的かつ曖昧なデータに頼る原因となり、"ガベージ・イン・オブ・ガベージ・アウト"のパラダイムに従って、非ロバストで不正確な結果をもたらす。
本研究は, 毒性検出のための新しい, 客観的, 文脈対応の枠組みを導入し, ストレスレベルを毒性決定因子として活用する。
我々は、フレームワークの一部として、新しい定義、メートル法、トレーニングアプローチを提案し、収集したデータセットを用いて、その効果を実証する。
関連論文リスト
- Unlearnable Examples Detection via Iterative Filtering [84.59070204221366]
ディープニューラルネットワークは、データ中毒攻撃に弱いことが証明されている。
混合データセットから有毒なサンプルを検出することは極めて有益であり、困難である。
UE識別のための反復フィルタリング手法を提案する。
論文 参考訳(メタデータ) (2024-08-15T13:26:13Z) - ToXCL: A Unified Framework for Toxic Speech Detection and Explanation [3.803993344850168]
ToXCLは暗黙の有毒音声の検出と説明のための統合されたフレームワークである。
ToXCLは、新しい最先端の有効性を実現し、ベースラインを大幅に上回る。
論文 参考訳(メタデータ) (2024-03-25T12:21:38Z) - On the definition of toxicity in NLP [2.1830650692803863]
この研究は、客観的かつ文脈に配慮した新しいストレスレベルに基づく毒性の定義を示唆している。
それと同等に、データセットの作成とモデルのトレーニングにこの新しい定義を適用する方法についても説明します。
論文 参考訳(メタデータ) (2023-10-03T18:32:34Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - Toxicity Inspector: A Framework to Evaluate Ground Truth in Toxicity
Detection Through Feedback [0.0]
本稿では,ヒト・イン・ザ・ループパイプラインを組み込んだ毒性検査フレームワークを提案する。
これは、反復的なフィードバックサイクルを通じて評価者の値を集中させることで、毒性ベンチマークデータセットの信頼性を高めることを目的としている。
論文 参考訳(メタデータ) (2023-05-11T11:56:42Z) - Detoxifying Language Models with a Toxic Corpus [16.7345472998388]
毒性を減らすため, 有害コーパスを添加資源として利用することを提案する。
その結果, 有害コーパスは, 言語生成過程の毒性を大幅に低下させる可能性が示唆された。
論文 参考訳(メタデータ) (2022-04-30T18:25:18Z) - Handling Bias in Toxic Speech Detection: A Survey [26.176340438312376]
本稿では,有毒な音声検出におけるバイアスの評価と緩和手法について検討する。
ケーススタディでは、知識に基づくバイアス緩和によるバイアスシフトの概念を紹介している。
調査は、重要な課題、研究のギャップ、今後の方向性の概要で締めくくっている。
論文 参考訳(メタデータ) (2022-01-26T10:38:36Z) - Toxicity Detection can be Sensitive to the Conversational Context [64.28043776806213]
2種類の毒性ラベルを持つ1万のポストのデータセットを構築し、公開します。
また,新たな課題である文脈感度推定を導入し,コンテキストも考慮された場合,毒性が変化すると認識された投稿を識別することを目的とした。
論文 参考訳(メタデータ) (2021-11-19T13:57:26Z) - Challenges in Automated Debiasing for Toxic Language Detection [81.04406231100323]
バイアスド・アソシエーションは、有害な言語を検出するための分類器の開発において課題となっている。
我々は最近,有害な言語検出に適用されたテキスト分類データセットとモデルに対するデバイアス法について検討した。
我々の焦点は語彙(例えば、誓い言葉、スラー、アイデンティティの言及)と方言マーカー(特にアフリカ系アメリカ人の英語)である。
論文 参考訳(メタデータ) (2021-01-29T22:03:17Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language
Models [93.151822563361]
事前訓練されたニューラルネットワークモデル(LM)は、安全なデプロイメントを妨げる人種差別的、性差別的、その他の有害な言語を生成する傾向にある。
本研究では, 予め訓練したLMが有害な言語を生成できる範囲と, 有害な変性を防止するための制御可能なテキスト生成アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2020-09-24T03:17:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。