論文の概要: Toxicity Detection: Does Context Really Matter?
- arxiv url: http://arxiv.org/abs/2006.00998v1
- Date: Mon, 1 Jun 2020 15:03:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 07:07:41.670616
- Title: Toxicity Detection: Does Context Really Matter?
- Title(参考訳): 毒性検出:コンテキストは本当に重要か?
- Authors: John Pavlopoulos and Jeffrey Sorensen and Lucas Dixon and Nithum Thain
and Ion Androutsopoulos
- Abstract要約: 私たちは、投稿の有害性に対する認識を増幅または緩和できる状況があることに気付きました。
意外なことに、文脈が毒性分類器の性能を実際に改善する証拠も見つからない。
これは、コンテキストにアノテートされたコメントのより大きなデータセットの必要性を示している。
- 参考スコア(独自算出の注目度): 22.083682201142242
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Moderation is crucial to promoting healthy on-line discussions. Although
several `toxicity' detection datasets and models have been published, most of
them ignore the context of the posts, implicitly assuming that comments maybe
judged independently. We investigate this assumption by focusing on two
questions: (a) does context affect the human judgement, and (b) does
conditioning on context improve performance of toxicity detection systems? We
experiment with Wikipedia conversations, limiting the notion of context to the
previous post in the thread and the discussion title. We find that context can
both amplify or mitigate the perceived toxicity of posts. Moreover, a small but
significant subset of manually labeled posts (5% in one of our experiments) end
up having the opposite toxicity labels if the annotators are not provided with
context. Surprisingly, we also find no evidence that context actually improves
the performance of toxicity classifiers, having tried a range of classifiers
and mechanisms to make them context aware. This points to the need for larger
datasets of comments annotated in context. We make our code and data publicly
available.
- Abstract(参考訳): モデレーションはオンラインの健全な議論を促進するのに不可欠である。
いくつかの‘毒性’検出データセットとモデルが公開されているが、その多くは投稿のコンテキストを無視し、コメントが独立して判断されたと暗黙的に仮定している。
この仮定を2つの質問に焦点をあてて検討する。
(a)人間の判断には文脈が影響し、
(b)コンディショニングは毒性検出システムの性能を向上させるか?
我々はウィキペディアの会話を実験し、文脈の概念をスレッド内の前の記事と議論タイトルに限定した。
文脈は、ポストの知覚された毒性を増幅または緩和できる。
さらに、手動でラベル付けされたポストの小さいが重要なサブセット(実験の5%)は、アノテータがコンテキストを持っていなければ、反対の毒性ラベルを持つことになる。
驚くべきことに、コンテクストが毒性分類器の性能を実際に向上させる証拠も見つからず、様々な分類器とメカニズムを試してコンテクストを意識させている。
これは、コンテキストにアノテートされたコメントのより大きなデータセットの必要性を示している。
コードとデータを公開しています。
関連論文リスト
- On the Role of Speech Data in Reducing Toxicity Detection Bias [22.44133159647888]
マルチリンガルな MuTox データセットに対して,高品質なグループアノテーションセットを作成する。
次に、これらのアノテーションを利用して、音声およびテキストに基づく毒性分類器を体系的に比較する。
以上の結果から,推測中の音声データへのアクセスは,グループ言及に対する偏見の低減に役立つことが示唆された。
論文 参考訳(メタデータ) (2024-11-12T19:26:43Z) - BiasX: "Thinking Slow" in Toxic Content Moderation with Explanations of
Implied Social Biases [28.519851740902258]
BiasXは、文の暗黙の社会的バイアスを自由テキストで説明することで、コンテンツモデレーションのセットアップを強化するフレームワークである。
被験者は, 有害物質(非毒性物質)を的確に同定する際の説明から, 有意な利益を享受できることが示唆された。
以上の結果から, より思慮深い毒性抑制を促すために, 自由テキストの説明を用いることが期待できることを示す。
論文 参考訳(メタデータ) (2023-05-23T01:45:18Z) - Constructing Highly Inductive Contexts for Dialogue Safety through
Controllable Reverse Generation [65.48908724440047]
そこで本稿では,ある応答に条件付けされた逆コンテキストを構築するために,エンフレバース生成と呼ばれる手法を提案する。
我々は,Blender,DialoGPT,Plato2の3種類の事前訓練済み対話モデルをテストする。
論文 参考訳(メタデータ) (2022-12-04T12:23:41Z) - Hate Speech and Counter Speech Detection: Conversational Context Does
Matter [7.333666276087548]
本稿では,オンラインヘイトとカウンタースピーチのアノテーションと検出における会話コンテキストの役割について検討する。
私たちはRedditのコメントに3段階の分類タスク(ヘイトスピーチ、カウンタースピーチ、中立性)のためのコンテキスト対応データセットを作成しました。
論文 参考訳(メタデータ) (2022-06-13T19:05:44Z) - Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language [76.58220021791955]
本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
論文 参考訳(メタデータ) (2022-03-04T15:59:06Z) - Toxicity Detection can be Sensitive to the Conversational Context [64.28043776806213]
2種類の毒性ラベルを持つ1万のポストのデータセットを構築し、公開します。
また,新たな課題である文脈感度推定を導入し,コンテキストも考慮された場合,毒性が変化すると認識された投稿を識別することを目的とした。
論文 参考訳(メタデータ) (2021-11-19T13:57:26Z) - Detecting Inappropriate Messages on Sensitive Topics that Could Harm a
Company's Reputation [64.22895450493729]
カメや釣りの穏やかな議論は、政治や性的マイノリティの議論よりも不適切な有毒な対話を後押しします。
我々は,不適切で有害なメッセージを生み出す可能性のある,センシティブなトピックのセットを定義し,データセットの収集とラベル付けの方法論を記述した。
論文 参考訳(メタデータ) (2021-03-09T10:50:30Z) - Challenges in Automated Debiasing for Toxic Language Detection [81.04406231100323]
バイアスド・アソシエーションは、有害な言語を検出するための分類器の開発において課題となっている。
我々は最近,有害な言語検出に適用されたテキスト分類データセットとモデルに対するデバイアス法について検討した。
我々の焦点は語彙(例えば、誓い言葉、スラー、アイデンティティの言及)と方言マーカー(特にアフリカ系アメリカ人の英語)である。
論文 参考訳(メタデータ) (2021-01-29T22:03:17Z) - Don't Judge an Object by Its Context: Learning to Overcome Contextual
Bias [113.44471186752018]
既存のモデルは、認識精度を向上させるために、オブジェクトとそのコンテキスト間の共起を利用することが多い。
この研究は、学習した特徴表現の堅牢性を改善するために、そのような文脈バイアスに対処することに焦点を当てている。
論文 参考訳(メタデータ) (2020-01-09T18:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。