論文の概要: Revisiting Contextual Toxicity Detection in Conversations
- arxiv url: http://arxiv.org/abs/2111.12447v1
- Date: Wed, 24 Nov 2021 11:50:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 14:58:31.970490
- Title: Revisiting Contextual Toxicity Detection in Conversations
- Title(参考訳): 会話における文脈的毒性検出の再検討
- Authors: Julia Ive, Atijit Anuchitanukul and Lucia Specia
- Abstract要約: ヒトによる毒性のラベル付けは、一般的に、会話の構造、極性、文脈の話題に影響されている。
本稿では、文脈毒性検出のためのニューラルネットワークを導入して、これらの知見を計算検出モデルに適用することを提案する。
また、このようなモデルが、特にソーシャルメディア領域において、合成データの恩恵を受けることを実証した。
- 参考スコア(独自算出の注目度): 28.465019968374413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding toxicity in user conversations is undoubtedly an important
problem. As it has been argued in previous work, addressing "covert" or
implicit cases of toxicity is particularly hard and requires context. Very few
previous studies have analysed the influence of conversational context in human
perception or in automated detection models. We dive deeper into both these
directions. We start by analysing existing contextual datasets and come to the
conclusion that toxicity labelling by humans is in general influenced by the
conversational structure, polarity and topic of the context. We then propose to
bring these findings into computational detection models by introducing (a)
neural architectures for contextual toxicity detection that are aware of the
conversational structure, and (b) data augmentation strategies that can help
model contextual toxicity detection. Our results have shown the encouraging
potential of neural architectures that are aware of the conversation structure.
We have also demonstrated that such models can benefit from synthetic data,
especially in the social media domain.
- Abstract(参考訳): ユーザ会話の毒性を理解することは、間違いなく重要な問題である。
以前の研究で論じられたように、毒性の「隠蔽」や暗黙のケースに対処することは特に困難であり、文脈を必要とする。
人間の知覚や自動検出モデルにおける会話の文脈の影響を分析する研究はほとんどない。
私たちはこの2つの方向を深く掘り下げる。
まず、既存の文脈データセットを分析し、人間による毒性のラベル付けは、一般的に文脈の会話構造、極性、話題に影響されているという結論に達した。
次に,これらの知見を計算検出モデルに導入することを提案する。
(a)会話の構造を認識した文脈的毒性検出のための神経アーキテクチャ、及び
b) 文脈的毒性の検出をモデル化するためのデータ拡張戦略。
以上の結果から,会話構造を意識したニューラルアーキテクチャの可能性が示唆された。
また,このようなモデルが合成データ,特にソーシャルメディア領域の恩恵を受けることも実証した。
関連論文リスト
- How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - ToxicChat: Unveiling Hidden Challenges of Toxicity Detection in
Real-World User-AI Conversation [43.356758428820626]
ToxicChatは、オープンソースのチャットボットからの実際のユーザクエリに基づく、新しいベンチマークである。
既存の毒性データセットに基づいてトレーニングされたモデルの体系的評価は、ToxicChatのこのユニークなドメインに適用した場合の欠点を示している。
将来的には、ToxicChatは、ユーザとAIインタラクションのための安全で健全な環境を構築するためのさらなる進歩を促進する上で、貴重なリソースになり得る。
論文 参考訳(メタデータ) (2023-10-26T13:35:41Z) - CausalDialogue: Modeling Utterance-level Causality in Conversations [83.03604651485327]
クラウドソーシングを通じて、CausalDialogueという新しいデータセットをコンパイルし、拡張しました。
このデータセットは、有向非巡回グラフ(DAG)構造内に複数の因果効果対を含む。
ニューラル会話モデルの訓練における発話レベルにおける因果性の影響を高めるために,Exponential Average Treatment Effect (ExMATE) と呼ばれる因果性強化手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T18:31:50Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Toxicity Detection can be Sensitive to the Conversational Context [64.28043776806213]
2種類の毒性ラベルを持つ1万のポストのデータセットを構築し、公開します。
また,新たな課題である文脈感度推定を導入し,コンテキストも考慮された場合,毒性が変化すると認識された投稿を識別することを目的とした。
論文 参考訳(メタデータ) (2021-11-19T13:57:26Z) - Mitigating Biases in Toxic Language Detection through Invariant
Rationalization [70.36701068616367]
性別、人種、方言などの属性に対するバイアスは、毒性検出のためのほとんどのトレーニングデータセットに存在する。
本稿では,論理生成器と予測器から構成されるゲーム理論フレームワークである不変合理化(InvRat)を用いて,特定の構文パターンの素早い相関を除外することを提案する。
本手法は, 語彙属性と方言属性の両方において, 従来のデバイアス法よりも低い偽陽性率を示す。
論文 参考訳(メタデータ) (2021-06-14T08:49:52Z) - CONDA: a CONtextual Dual-Annotated dataset for in-game toxicity
understanding and detection [1.6085428542036968]
CONDAは,ゲーム内有害言語検出のための新しいデータセットである。
データセットは、1.9Kの完了したDota 2マッチのチャットログから12Kの会話から45Kの発話で構成されている。
ゲーム内毒性分析は、発話、トークン、二重レベルにおけるコンテキストの包括的理解を提供する。
論文 参考訳(メタデータ) (2021-06-11T07:42:12Z) - I like fish, especially dolphins: Addressing Contradictions in Dialogue
Modeling [104.09033240889106]
DialoguE Contradiction Detection Task(DECODE)と、人間とロボットの矛盾した対話の両方を含む新しい会話データセットを紹介します。
次に、事前学習したトランスフォーマーモデルを用いて、定型的非構造的アプローチと矛盾検出を行う構造的発話に基づくアプローチを比較する。
論文 参考訳(メタデータ) (2020-12-24T18:47:49Z) - Using Sentiment Information for Preemptive Detection of Toxic Comments
in Online Conversations [0.0]
一部の著者は、最初の数つのメッセージの特徴を使って会話が有害な状態に陥るかどうかを予測しようとした。
会話の最初のメッセージで表される感情が、今後の毒性を予測するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2020-06-17T20:41:57Z) - BiERU: Bidirectional Emotional Recurrent Unit for Conversational
Sentiment Analysis [18.1320976106637]
会話感情分析と単文感情分析の主な違いは、文脈情報の存在である。
既存のアプローチでは、会話内の異なるパーティを区別し、コンテキスト情報をモデル化するために複雑なディープラーニング構造を採用している。
本稿では,会話感情分析のための双方向感情的反復単位という,高速でコンパクトでパラメータ効率のよい非依存フレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-31T11:13:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。