論文の概要: Mitigating Toxic Degeneration with Empathetic Data: Exploring the
Relationship Between Toxicity and Empathy
- arxiv url: http://arxiv.org/abs/2205.07233v1
- Date: Sun, 15 May 2022 09:37:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 13:59:47.185798
- Title: Mitigating Toxic Degeneration with Empathetic Data: Exploring the
Relationship Between Toxicity and Empathy
- Title(参考訳): 情緒的データによる毒性変性の緩和 : 毒性と共感の関係を探る
- Authors: Allison Lahnala, Charles Welch, B\'ela Neuendorf, Lucie Flek
- Abstract要約: 共感的データを用いて, 生成したテキストの毒性を低減することを目的とした, 制御可能なテキスト生成に関する最近の研究を改良する。
我々は、微調整データのサイズを7.5-30kのサンプルに劇的に削減できると同時に、最先端の毒性軽減よりも大幅に改善できることを発見した。
- 参考スコア(独自算出の注目度): 8.293498506807333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large pre-trained neural language models have supported the effectiveness of
many NLP tasks, yet are still prone to generating toxic language hindering the
safety of their use. Using empathetic data, we improve over recent work on
controllable text generation that aims to reduce the toxicity of generated
text. We find we are able to dramatically reduce the size of fine-tuning data
to 7.5-30k samples while at the same time making significant improvements over
state-of-the-art toxicity mitigation of up to 3.4% absolute reduction (26%
relative) from the original work on 2.3m samples, by strategically sampling
data based on empathy scores. We observe that the degree of improvement is
subject to specific communication components of empathy. In particular, the
cognitive components of empathy significantly beat the original dataset in
almost all experiments, while emotional empathy was tied to less improvement
and even underperforming random samples of the original data. This is a
particularly implicative insight for NLP work concerning empathy as until
recently the research and resources built for it have exclusively considered
empathy as an emotional concept.
- Abstract(参考訳): 大規模な事前学習されたニューラルネットワークモデルは、多くのNLPタスクの有効性を支持しているが、それでもその使用の安全性を妨げる有害な言語を生成する傾向にある。
共感的データを用いて,生成したテキストの毒性を低減することを目的とした,制御可能なテキスト生成に関する最近の研究を改良する。
また, 従来の2.3mサンプルから最大3.4%の絶対減量(26%の相対値)を, 共感スコアに基づいて戦略的にサンプリングすることで, 最先端の毒性低減効果を著しく向上すると同時に, 微調整データの7.5-30kサンプルまで劇的に縮小できることがわかった。
我々は、改善の度合いが共感の特定のコミュニケーション要素の対象となることを観察する。
特に、共感の認知的要素は、ほとんどすべての実験で元のデータセットを著しく上回り、感情的共感は改善の少ないことと、元のデータのランダムなサンプルを過小評価することと結びついている。
これは、最近まで、そのために構築された研究と資源は、感情的な概念としてのみ共感が考えられているように、NLPの共感に関する研究にとって特に意味のある洞察である。
関連論文リスト
- APTNESS: Incorporating Appraisal Theory and Emotion Support Strategies for Empathetic Response Generation [71.26755736617478]
共感反応生成は、他人の感情を理解するように設計されている。
検索強化と感情支援戦略統合を組み合わせたフレームワークを開発する。
我々の枠組みは認知的・情緒的共感の両面からLLMの共感能力を高めることができる。
論文 参考訳(メタデータ) (2024-07-23T02:23:37Z) - Efficient-Empathy: Towards Efficient and Effective Selection of Empathy Data [32.483540066357]
感性・合理性スコアに基づくデータ選択アルゴリズムであるEfficient-Empathyを提案する。
我々の訓練された感性モデルは、最先端(SoTA)の性能を効率的に達成する。
感度と合理性データをMoE構造と組み合わせることで,さらに高い性能を実現する。
論文 参考訳(メタデータ) (2024-07-02T04:11:52Z) - Empathy and Distress Detection using Ensembles of Transformer Models [0.0]
本稿では,WASSA 2023共感・感情・パーソナリティ共有タスクへのアプローチについて述べる。
自然言語処理において、共感と悲惨な検出が重要な課題である。
Pearsonのrスコアは0.346で、共感と悲惨な検出のサブタスクでは3位です。
論文 参考訳(メタデータ) (2023-12-05T08:50:34Z) - Relevance in Dialogue: Is Less More? An Empirical Comparison of Existing
Metrics, and a Novel Simple Metric [18.690461703947047]
相関性を改善しつつデータ要求と領域感度を低減させる修正を提案する。
提案手法は,HUMODデータセットの精度を37%-66%低下させながら,HUMODデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-06-03T21:23:05Z) - Exemplars-guided Empathetic Response Generation Controlled by the
Elements of Human Communication [88.52901763928045]
そこで本稿では, インターロケータへの共感を伝達する, 造形モデルによる細かな構造的特性の解明に先立って, 模範的手法を提案する。
これらの手法は, 自動評価指標と人的評価指標の両方の観点から, 共感的応答品質の大幅な改善をもたらすことを実証的に示す。
論文 参考訳(メタデータ) (2021-06-22T14:02:33Z) - Mitigating Biases in Toxic Language Detection through Invariant
Rationalization [70.36701068616367]
性別、人種、方言などの属性に対するバイアスは、毒性検出のためのほとんどのトレーニングデータセットに存在する。
本稿では,論理生成器と予測器から構成されるゲーム理論フレームワークである不変合理化(InvRat)を用いて,特定の構文パターンの素早い相関を除外することを提案する。
本手法は, 語彙属性と方言属性の両方において, 従来のデバイアス法よりも低い偽陽性率を示す。
論文 参考訳(メタデータ) (2021-06-14T08:49:52Z) - Text Mining to Identify and Extract Novel Disease Treatments From
Unstructured Datasets [56.38623317907416]
Google Cloudを使って、NPRラジオ番組のポッドキャストのエピソードを書き起こします。
次に、テキストを体系的に前処理するためのパイプラインを構築します。
我々のモデルは、Omeprazoleが心臓熱傷の治療に役立てることに成功しました。
論文 参考訳(メタデータ) (2020-10-22T19:52:49Z) - RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language
Models [93.151822563361]
事前訓練されたニューラルネットワークモデル(LM)は、安全なデプロイメントを妨げる人種差別的、性差別的、その他の有害な言語を生成する傾向にある。
本研究では, 予め訓練したLMが有害な言語を生成できる範囲と, 有害な変性を防止するための制御可能なテキスト生成アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2020-09-24T03:17:19Z) - Towards Persona-Based Empathetic Conversational Models [58.65492299237112]
共感的会話モデルは、多くのドメインにおけるユーザの満足度とタスク結果を改善することが示されている。
心理学において、ペルソナは人格と高い相関関係があることが示され、それによって共感に影響を及ぼす。
本研究では,ペルソナに基づく共感的会話に対する新たな課題を提案し,ペルソナが共感的反応に与える影響に関する最初の経験的研究を示す。
論文 参考訳(メタデータ) (2020-04-26T08:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。