論文の概要: Detecting Inappropriate Messages on Sensitive Topics that Could Harm a
Company's Reputation
- arxiv url: http://arxiv.org/abs/2103.05345v1
- Date: Tue, 9 Mar 2021 10:50:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 15:01:15.056565
- Title: Detecting Inappropriate Messages on Sensitive Topics that Could Harm a
Company's Reputation
- Title(参考訳): 企業の発言を損なう可能性のあるセンシティブトピックに関する不適切なメッセージの検出
- Authors: Nikolay Babakov, Varvara Logacheva, Olga Kozlova, Nikita Semenov and
Alexander Panchenko
- Abstract要約: カメや釣りの穏やかな議論は、政治や性的マイノリティの議論よりも不適切な有毒な対話を後押しします。
我々は,不適切で有害なメッセージを生み出す可能性のある,センシティブなトピックのセットを定義し,データセットの収集とラベル付けの方法論を記述した。
- 参考スコア(独自算出の注目度): 64.22895450493729
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Not all topics are equally "flammable" in terms of toxicity: a calm
discussion of turtles or fishing less often fuels inappropriate toxic dialogues
than a discussion of politics or sexual minorities. We define a set of
sensitive topics that can yield inappropriate and toxic messages and describe
the methodology of collecting and labeling a dataset for appropriateness. While
toxicity in user-generated data is well-studied, we aim at defining a more
fine-grained notion of inappropriateness. The core of inappropriateness is that
it can harm the reputation of a speaker. This is different from toxicity in two
respects: (i) inappropriateness is topic-related, and (ii) inappropriate
message is not toxic but still unacceptable. We collect and release two
datasets for Russian: a topic-labeled dataset and an appropriateness-labeled
dataset. We also release pre-trained classification models trained on this
data.
- Abstract(参考訳): カメや釣りについての冷静な議論は、政治や性マイノリティの議論よりも不適切な有害な対話を助長することが多い。
我々は,不適切で有害なメッセージを生み出す可能性のある,センシティブなトピックのセットを定義し,データセットの収集とラベル付けの方法論を記述した。
ユーザ生成データの毒性は十分に研究されているが、より詳細な不適切な概念を定義することを目指している。
不適切性の中核は、スピーカーの評判を損なう可能性があることです。
これは2つの点で毒性と異なる:(i)不適切性はトピック関連であり、(ii)不適切なメッセージは有毒ではないが、まだ受け入れられない。
ロシアの2つのデータセットを収集およびリリースします。トピックラベルデータセットと適切なラベルラベルデータセットです。
また、このデータに基づいて訓練された事前訓練された分類モデルもリリースする。
関連論文リスト
- Constructing Highly Inductive Contexts for Dialogue Safety through
Controllable Reverse Generation [65.48908724440047]
そこで本稿では,ある応答に条件付けされた逆コンテキストを構築するために,エンフレバース生成と呼ばれる手法を提案する。
我々は,Blender,DialoGPT,Plato2の3種類の事前訓練済み対話モデルをテストする。
論文 参考訳(メタデータ) (2022-12-04T12:23:41Z) - Handling and Presenting Harmful Text [10.359716317114815]
テキストデータは深刻な危害のリスクを引き起こす可能性がある。
これらの害は、誤情報、ヘイトスピーチ、人種的ステレオタイプという3つの軸に沿って分類することができる。
NLPでは、テキストの害がどのように扱われ、提示され、議論されるべきかという未解決の問題である。
我々は,テキスト害の研究を反映するリソースであるtextscHarmCheck を導入し,実践的なアドバイスを提供する。
論文 参考訳(メタデータ) (2022-04-29T17:34:12Z) - Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language [76.58220021791955]
本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
論文 参考訳(メタデータ) (2022-03-04T15:59:06Z) - Toxicity Detection can be Sensitive to the Conversational Context [64.28043776806213]
2種類の毒性ラベルを持つ1万のポストのデータセットを構築し、公開します。
また,新たな課題である文脈感度推定を導入し,コンテキストも考慮された場合,毒性が変化すると認識された投稿を識別することを目的とした。
論文 参考訳(メタデータ) (2021-11-19T13:57:26Z) - Mitigating Biases in Toxic Language Detection through Invariant
Rationalization [70.36701068616367]
性別、人種、方言などの属性に対するバイアスは、毒性検出のためのほとんどのトレーニングデータセットに存在する。
本稿では,論理生成器と予測器から構成されるゲーム理論フレームワークである不変合理化(InvRat)を用いて,特定の構文パターンの素早い相関を除外することを提案する。
本手法は, 語彙属性と方言属性の両方において, 従来のデバイアス法よりも低い偽陽性率を示す。
論文 参考訳(メタデータ) (2021-06-14T08:49:52Z) - Challenges in Automated Debiasing for Toxic Language Detection [81.04406231100323]
バイアスド・アソシエーションは、有害な言語を検出するための分類器の開発において課題となっている。
我々は最近,有害な言語検出に適用されたテキスト分類データセットとモデルに対するデバイアス法について検討した。
我々の焦点は語彙(例えば、誓い言葉、スラー、アイデンティティの言及)と方言マーカー(特にアフリカ系アメリカ人の英語)である。
論文 参考訳(メタデータ) (2021-01-29T22:03:17Z) - Toxicity Detection: Does Context Really Matter? [22.083682201142242]
私たちは、投稿の有害性に対する認識を増幅または緩和できる状況があることに気付きました。
意外なことに、文脈が毒性分類器の性能を実際に改善する証拠も見つからない。
これは、コンテキストにアノテートされたコメントのより大きなデータセットの必要性を示している。
論文 参考訳(メタデータ) (2020-06-01T15:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。