論文の概要: COBRA Frames: Contextual Reasoning about Effects and Harms of Offensive
Statements
- arxiv url: http://arxiv.org/abs/2306.01985v2
- Date: Fri, 9 Jun 2023 01:49:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-12 16:14:01.833801
- Title: COBRA Frames: Contextual Reasoning about Effects and Harms of Offensive
Statements
- Title(参考訳): COBRAフレーム: 攻撃的文書の効果と害に関する文脈推論
- Authors: Xuhui Zhou, Hao Zhu, Akhila Yerukola, and Thomas Davidson, Jena D.
Hwang, Swabha Swayamdipta, Maarten Sap
- Abstract要約: 攻撃的あるいは偏りのある文の意図,反応,害を説明するための,最初の文脈対応形式であるCOBRAフレームを紹介する。
私たちは、マシン生成コンテキストと組み合わせた33kの潜在的攻撃的ステートメントのデータセットであるCOBRACORPUSを作成します。
文脈非依存モデルによる説明は文脈認識モデルよりはるかに悪いことが判明した。
- 参考スコア(独自算出の注目度): 30.1056760312051
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Warning: This paper contains content that may be offensive or upsetting.
Understanding the harms and offensiveness of statements requires reasoning
about the social and situational context in which statements are made. For
example, the utterance "your English is very good" may implicitly signal an
insult when uttered by a white man to a non-white colleague, but uttered by an
ESL teacher to their student would be interpreted as a genuine compliment. Such
contextual factors have been largely ignored by previous approaches to toxic
language detection. We introduce COBRA frames, the first context-aware
formalism for explaining the intents, reactions, and harms of offensive or
biased statements grounded in their social and situational context. We create
COBRACORPUS, a dataset of 33k potentially offensive statements paired with
machine-generated contexts and free-text explanations of offensiveness, implied
biases, speaker intents, and listener reactions. To study the contextual
dynamics of offensiveness, we train models to generate COBRA explanations, with
and without access to the context. We find that explanations by
context-agnostic models are significantly worse than by context-aware ones,
especially in situations where the context inverts the statement's
offensiveness (29% accuracy drop). Our work highlights the importance and
feasibility of contextualized NLP by modeling social factors.
- Abstract(参考訳): 警告: 本論文は攻撃的あるいは不安定なコンテンツを含んでいる。
言明の害と攻撃性を理解するには、言明がなされる社会的・状況的文脈についての推論が必要である。
例えば、「あなたの英語はとても良い」という発声は、白人男性から非白人の同僚に発するときに暗黙的に侮辱を示唆するが、ESL教師が生徒に発する発声は、真の褒め言葉として解釈される。
このような文脈的要因は、以前の有毒な言語検出のアプローチによって無視されてきた。
社会的・状況的文脈に根ざした攻撃的・偏見のある言明の意図、反応、害を説明する最初の文脈対応形式であるCOBRAフレームを紹介する。
これは、マシン生成のコンテキストと、攻撃性、暗黙のバイアス、話者意図、リスナー反応のフリーテキストの説明を組み合わせた、33kの潜在的攻撃的ステートメントのデータセットです。
攻撃性の文脈的ダイナミクスを研究するために、我々は、文脈へのアクセスなしにCOBRAの説明を生成するためにモデルを訓練する。
文脈依存モデルによる説明は文脈認識モデルよりも著しく悪い、特に文脈が文の不快さを反転する状況(29%の精度低下)では特に顕著である。
本研究は,社会的要因のモデル化による文脈的NLPの重要性と実現可能性を強調した。
関連論文リスト
- A Comprehensive View of the Biases of Toxicity and Sentiment Analysis
Methods Towards Utterances with African American English Expressions [5.472714002128254]
ウェブベース(YouTubeとTwitter)の2つのデータセットと英語の2つのデータセットのバイアスについて検討した。
我々は,言語問合せおよびワードカウントソフトウェアから言語制御機能を介してAE表現の使用が与える影響を分離する。
また, AAE 表現の多用により, 話者の毒性が著しく向上する可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-23T12:41:03Z) - Natural Language Decompositions of Implicit Content Enable Better Text
Representations [56.85319224208865]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - Hate Speech and Counter Speech Detection: Conversational Context Does
Matter [7.333666276087548]
本稿では,オンラインヘイトとカウンタースピーチのアノテーションと検出における会話コンテキストの役割について検討する。
私たちはRedditのコメントに3段階の分類タスク(ヘイトスピーチ、カウンタースピーチ、中立性)のためのコンテキスト対応データセットを作成しました。
論文 参考訳(メタデータ) (2022-06-13T19:05:44Z) - Rethinking Offensive Text Detection as a Multi-Hop Reasoning Problem [15.476899850339395]
対話における暗黙的な攻撃的テキスト検出の課題について紹介する。
我々は、このより広い種類の攻撃的発話を理解するためには、推論が不可欠であると主張する。
このタスクの研究を支援するデータセットであるSLIGHTをリリースする。
論文 参考訳(メタデータ) (2022-04-22T06:20:15Z) - Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language [76.58220021791955]
本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
論文 参考訳(メタデータ) (2022-03-04T15:59:06Z) - Just Say No: Analyzing the Stance of Neural Dialogue Generation in
Offensive Contexts [26.660268192685763]
ToxiChatは2000のRedditスレッドと、攻撃的な言語とスタンスでラベル付けされたモデルレスポンスからなる新しいデータセットです。
分析の結果、ユーザーの反応の42%が有毒なコメントに同意していることがわかった。
論文 参考訳(メタデータ) (2021-08-26T14:58:05Z) - Do Context-Aware Translation Models Pay the Right Attention? [61.25804242929533]
コンテキスト対応機械翻訳モデルは文脈情報を活用するように設計されているが、しばしば失敗する。
本稿では,人間の翻訳者が曖昧な単語を解くために使用する文脈について述べる。
SCAT(Supporting Context for Ambiguous Translations)は、14K翻訳のコンテキストワードをサポートする新しい英仏データセットです。
SCATを用いて,支援語の位置的特徴と語彙的特徴をあいまいにするために使用される文脈を詳細に分析する。
論文 参考訳(メタデータ) (2021-05-14T17:32:24Z) - Identifying Offensive Expressions of Opinion in Context [0.0]
文脈における意見や感情を識別する主観的情報抽出システムは依然として課題である。
感情に基づくNLPタスクでは、文脈における全ての攻撃的または憎悪的な意見よりも、情報抽出のリソースが少ない。
この論文は、明示的で暗黙的に攻撃的で、意見の表現を誓う新しいクロス言語的および文脈的攻撃的語彙を提供する。
論文 参考訳(メタデータ) (2021-04-25T18:35:39Z) - Did they answer? Subjective acts and intents in conversational discourse [48.63528550837949]
英会話の複数の主観的かつ主観的な解釈を含む最初の対話データセットを提示する。
意見の相違が曖昧であることを示し、異なる文脈要因についてより深く理解する必要がある。
論文 参考訳(メタデータ) (2021-04-09T16:34:19Z) - A Deep Neural Framework for Contextual Affect Detection [51.378225388679425]
感情を持たない短い単純なテキストは、その文脈と共に読むときに強い感情を表現することができる。
文中の単語の相互依存を学習する文脈影響検出フレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-28T05:03:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。