論文の概要: EMP-EVAL: A Framework for Measuring Empathy in Open Domain Dialogues
- arxiv url: http://arxiv.org/abs/2301.12510v1
- Date: Sun, 29 Jan 2023 18:42:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 16:50:31.315488
- Title: EMP-EVAL: A Framework for Measuring Empathy in Open Domain Dialogues
- Title(参考訳): EMP-EVAL:オープンドメイン対話における共感を測定するフレームワーク
- Authors: Bushra Amjad, Muhammad Zeeshan and Mirza Omer Beg
- Abstract要約: EMP-EVALは単純だが効果的な自動共感評価法である。
提案手法は感情,認知,情緒的共感の影響を受ける。
我々の測定値が人間の嗜好と相関し、人間の判断と同等の結果が得られることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Measuring empathy in conversation can be challenging, as empathy is a complex
and multifaceted psychological construct that involves both cognitive and
emotional components. Human evaluations can be subjective, leading to
inconsistent results. Therefore, there is a need for an automatic method for
measuring empathy that reduces the need for human evaluations. In this paper,
we proposed a novel approach EMP-EVAL, a simple yet effective automatic empathy
evaluation method. The proposed technique takes the influence of Emotion,
Cognitive and Emotional empathy. To the best knowledge, our work is the first
to systematically measure empathy without the human-annotated provided scores.
Experimental results demonstrate that our metrics can correlate with human
preference, achieving comparable results with human judgments.
- Abstract(参考訳): 共感は、認知的要素と感情的要素の両方を含む複雑で多面的な心理的構成物である。
人間の評価は主観的であり、矛盾した結果をもたらす。
したがって、人間評価の必要性を減少させる共感を測定する自動方法が必要となる。
本稿では,単純で効果的な自動共感評価手法であるEMP-EVALを提案する。
提案手法は,感情・認知・感情の共感に影響を及ぼす。
最高の知識を得るために、私たちの研究は、人間が注釈付けしたスコアなしで共感を体系的に測定する最初のものです。
実験の結果,人間の好みと相関し,人間の判断と同等の結果が得られることがわかった。
関連論文リスト
- APTNESS: Incorporating Appraisal Theory and Emotion Support Strategies for Empathetic Response Generation [71.26755736617478]
共感反応生成は、他人の感情を理解するように設計されている。
検索強化と感情支援戦略統合を組み合わせたフレームワークを開発する。
我々の枠組みは認知的・情緒的共感の両面からLLMの共感能力を高めることができる。
論文 参考訳(メタデータ) (2024-07-23T02:23:37Z) - Enablers and Barriers of Empathy in Software Developer and User
Interaction: A Mixed Methods Case Study [11.260371501613994]
開発者とエンドユーザ間の共感の実践について検討した。
我々は共感を誘発するために必要な認識の性質と共感の実現者を特定した。
共感の障壁と、これらの障壁を克服するための潜在的な戦略を発見した。
論文 参考訳(メタデータ) (2024-01-17T06:42:21Z) - Wish I Can Feel What You Feel: A Neural Approach for Empathetic Response
Generation [2.5255184843886225]
本稿では,感情の原因,知識グラフ,共感応答生成のためのコミュニケーション機構という,3つの要素を統合した新しいアプローチを提案する。
実験結果から,鍵成分を組み込むことにより,より情報的,共感的な反応が生じることが示された。
論文 参考訳(メタデータ) (2022-12-05T03:20:37Z) - CASE: Aligning Coarse-to-Fine Cognition and Affection for Empathetic
Response Generation [59.8935454665427]
共感的対話モデルは、通常、感情的な側面のみを考慮するか、孤立して認知と愛情を扱う。
共感的対話生成のためのCASEモデルを提案する。
論文 参考訳(メタデータ) (2022-08-18T14:28:38Z) - EmpBot: A T5-based Empathetic Chatbot focusing on Sentiments [75.11753644302385]
共感的会話エージェントは、議論されていることを理解しているだけでなく、会話相手の暗黙の感情も認識すべきである。
変圧器事前学習言語モデル(T5)に基づく手法を提案する。
本研究では,自動計測と人的評価の両方を用いて,情緒的ダイアログデータセットを用いたモデルの評価を行った。
論文 参考訳(メタデータ) (2021-10-30T19:04:48Z) - Exemplars-guided Empathetic Response Generation Controlled by the
Elements of Human Communication [88.52901763928045]
そこで本稿では, インターロケータへの共感を伝達する, 造形モデルによる細かな構造的特性の解明に先立って, 模範的手法を提案する。
これらの手法は, 自動評価指標と人的評価指標の両方の観点から, 共感的応答品質の大幅な改善をもたらすことを実証的に示す。
論文 参考訳(メタデータ) (2021-06-22T14:02:33Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z) - Towards an Online Empathetic Chatbot with Emotion Causes [10.700455393948818]
共感反応に対するユーザの感情を誘発する原因を学習することが重要である。
オンライン環境で感情の原因を収集するために、カウンセリング戦略を活用する。
提案手法の有効性を,複数のSOTA法との比較により検証した。
論文 参考訳(メタデータ) (2021-05-11T02:52:46Z) - MIME: MIMicking Emotions for Empathetic Response Generation [82.57304533143756]
共感応答生成への現在のアプローチは、入力テキストで表現された感情の集合を平らな構造として見る。
共感反応は, 肯定的, 否定的, 内容に応じて, ユーザの感情を様々な程度に模倣することが多い。
論文 参考訳(メタデータ) (2020-10-04T00:35:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。