論文の概要: Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language
- arxiv url: http://arxiv.org/abs/2203.02392v1
- Date: Fri, 4 Mar 2022 15:59:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 14:52:53.765421
- Title: Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language
- Title(参考訳): プレーントキシックを超えて:ロシア語の可燃性トピックに関する不適切な文章の検出
- Authors: Nikolay Babakov, Varvara Logacheva, Alexander Panchenko
- Abstract要約: 本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
- 参考スコア(独自算出の注目度): 76.58220021791955
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Toxicity on the Internet, such as hate speech, offenses towards particular
users or groups of people, or the use of obscene words, is an acknowledged
problem. However, there also exist other types of inappropriate messages which
are usually not viewed as toxic, e.g. as they do not contain explicit offences.
Such messages can contain covered toxicity or generalizations, incite harmful
actions (crime, suicide, drug use), provoke "heated" discussions. Such messages
are often related to particular sensitive topics, e.g. on politics, sexual
minorities, social injustice which more often than other topics, e.g. cars or
computing, yield toxic emotional reactions. At the same time, clearly not all
messages within such flammable topics are inappropriate.
Towards this end, in this work, we present two text collections labelled
according to binary notion of inapropriateness and a multinomial notion of
sensitive topic. Assuming that the notion of inappropriateness is common among
people of the same culture, we base our approach on human intuitive
understanding of what is not acceptable and harmful. To objectivise the notion
of inappropriateness, we define it in a data-driven way though crowdsourcing.
Namely we run a large-scale annotation study asking workers if a given chatbot
textual statement could harm reputation of a company created it. Acceptably
high values of inter-annotator agreement suggest that the notion of
inappropriateness exists and can be uniformly understood by different people.
To define the notion of sensitive topics in an objective way we use on
guidelines suggested commonly by specialists of legal and PR department of a
large public company as potentially harmful.
- Abstract(参考訳): インターネット上の有害性、例えばヘイトスピーチ、特定のユーザーや人々のグループに対する攻撃、あるいはわいせつな言葉の使用は、認識されている問題である。
しかし、他のタイプの不適切なメッセージも存在し、例えば、明示的な違反を含まないなど、一般的に有毒とはみなされない。
このようなメッセージは、有害な行為(犯罪、自殺、薬物使用)を誘発し、熱い議論を引き起こす、カバーされた毒性や一般化を含んでいる。
このようなメッセージは、例えば政治、性的マイノリティ、社会的不正など、特定のセンシティブなトピックと関連付けられ、車やコンピューティングなど、他のトピックよりも頻繁に、有害な感情反応をもたらす。
同時に、このような可燃性トピック内のすべてのメッセージは、明らかに不適切ではない。
そこで本研究では,不合理性という二項的概念と,センシティブな話題の多項的概念に基づく2つのテキストコレクションを提案する。
同一文化の人々の間で不適切という概念が一般的であると仮定すると、我々は、受け入れられず有害でないものを人間の直感的な理解に基づいてアプローチする。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
すなわち、あるチャットボットのテキスト文が、ある企業の評判に悪影響を及ぼすかどうかを労働者に尋ねる大規模なアノテーション研究を実行する。
注釈間合意の許容可能な高い価値は、不適切性の概念が存在することを示唆し、異なる人々によって一様に理解される。
大企業の法務・広報部門の専門家が推奨するガイドラインを客観的に活用する上で, センシティブなトピックの概念を潜在的に有害であるとして定義する。
関連論文リスト
- Analyzing Toxicity in Deep Conversations: A Reddit Case Study [0.0]
この研究は、公開会話設定における毒性に関するユーザがどのように振る舞うかを理解するために、ツリーベースのアプローチを採用する。
Redditの8つのコミュニティから上位100件の投稿とコメントのセクションを収集し、100万件以上の回答を得た。
有毒なコメントは、その後の有毒なコメントがオンライン会話で生み出される可能性を高める。
論文 参考訳(メタデータ) (2024-04-11T16:10:44Z) - Subjective $\textit{Isms}$? On the Danger of Conflating Hate and Offence
in Abusive Language Detection [5.351398116822836]
我々はヘイトスピーチの発見を無効にすることができると論じる。
我々は、将来の研究が理論上あることを求め、その概念や犯罪から憎悪を遠ざけている。
論文 参考訳(メタデータ) (2024-03-04T17:56:28Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Classification of social media Toxic comments using Machine learning
models [0.0]
この要約は、ソーシャルメディアプラットフォームにおける有害なコメントの問題を概説している。
この行動は反社会的行動と呼ばれ、オンライン討論、コメント、戦いの間に起こる。
明示的な言語を含むコメントは、有毒、重篤な有毒、わいせつ、脅迫、侮辱、同一性嫌悪など、様々なカテゴリに分類される。
ユーザーを不快な言葉から守るために、企業はコメントを掲示し、ユーザーをブロックし始めた。
論文 参考訳(メタデータ) (2023-04-14T05:40:11Z) - CoSyn: Detecting Implicit Hate Speech in Online Conversations Using a
Context Synergized Hyperbolic Network [52.85130555886915]
CoSynは、オンライン会話における暗黙のヘイトスピーチを検出するために、ユーザと会話のコンテキストを明示的に組み込んだ、コンテキスト中心のニューラルネットワークである。
我々は、CoSynが、1.24%から57.8%の範囲で絶対的に改善された暗黙のヘイトスピーチを検出することで、我々のベースラインを全て上回っていることを示す。
論文 参考訳(メタデータ) (2023-03-02T17:30:43Z) - Is the Elephant Flying? Resolving Ambiguities in Text-to-Image
Generative Models [64.58271886337826]
テキストから画像への生成モデルで生じるあいまいさについて検討する。
本稿では,ユーザから明確化を求めることによって,システムに与えられるプロンプトのあいまいさを軽減する枠組みを提案する。
論文 参考訳(メタデータ) (2022-11-17T17:12:43Z) - Enriching Abusive Language Detection with Community Context [0.3708656266586145]
叙述表現の使用は、良心的または活発な権限を与えることができる。
乱用検出のモデルは、これらの表現を軽蔑的で不注意に、疎外されたグループが持つ生産的な会話を検閲するものとして誤分類する。
本稿では,コミュニティの文脈が乱用言語検出における分類結果をどのように改善するかを強調した。
論文 参考訳(メタデータ) (2022-06-16T20:54:02Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - Detecting Inappropriate Messages on Sensitive Topics that Could Harm a
Company's Reputation [64.22895450493729]
カメや釣りの穏やかな議論は、政治や性的マイノリティの議論よりも不適切な有毒な対話を後押しします。
我々は,不適切で有害なメッセージを生み出す可能性のある,センシティブなトピックのセットを定義し,データセットの収集とラベル付けの方法論を記述した。
論文 参考訳(メタデータ) (2021-03-09T10:50:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。