論文の概要: Large Language Models Produce Responses Perceived to be Empathic
- arxiv url: http://arxiv.org/abs/2403.18148v1
- Date: Tue, 26 Mar 2024 23:14:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 18:55:29.769870
- Title: Large Language Models Produce Responses Perceived to be Empathic
- Title(参考訳): 大規模言語モデルが共感的と知覚される応答を生み出す
- Authors: Yoon Kyung Lee, Jina Suh, Hongli Zhan, Junyi Jessy Li, Desmond C. Ong,
- Abstract要約: LLM(Large Language Models)は、一般的な生活経験を説明する投稿に応答して共感的なメッセージを生成する。
いくつかのモデルで書かれた様々な反応を示し、その反応がいかに共感的であるかを評価した。
その結果, LLM生成応答は人文応答よりも共感的であった。
- 参考スコア(独自算出の注目度): 40.38391275905264
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated surprising performance on many tasks, including writing supportive messages that display empathy. Here, we had these models generate empathic messages in response to posts describing common life experiences, such as workplace situations, parenting, relationships, and other anxiety- and anger-eliciting situations. Across two studies (N=192, 202), we showed human raters a variety of responses written by several models (GPT4 Turbo, Llama2, and Mistral), and had people rate these responses on how empathic they seemed to be. We found that LLM-generated responses were consistently rated as more empathic than human-written responses. Linguistic analyses also show that these models write in distinct, predictable ``styles", in terms of their use of punctuation, emojis, and certain words. These results highlight the potential of using LLMs to enhance human peer support in contexts where empathy is important.
- Abstract(参考訳): 大規模言語モデル(LLM)は、共感を示すサポートメッセージを書くなど、多くのタスクにおいて驚くべきパフォーマンスを示している。
ここでは、職場の状況、育児、関係性、その他の不安や怒りに満ちた状況など、一般的な生活経験を説明する投稿に対して、これらのモデルが共感的なメッセージを生成した。
2つの研究 (N=192, 202) において, 複数のモデル (GPT4 Turbo, Llama2, Mistral) で記述された様々な反応を示し, それらの反応の共感性について評価した。
その結果, LLM生成応答は人文応答よりも共感的であった。
言語学的分析は、これらのモデルが句読点、絵文字、特定の単語を使用すれば、区別された予測可能な「スタイル」で書くことも示している。
これらの結果は、共感が重要である文脈において、人間のピアサポートを強化するためにLLMを使うことの可能性を強調している。
関連論文リスト
- Can Machines Resonate with Humans? Evaluating the Emotional and Empathic Comprehension of LMs [31.556095945149583]
言語モデルにおける共感理解を改善するためのいくつかの戦略を提案する。
アノテータ間の低い合意は、トレーニングを妨げ、タスクの主観的な性質を強調します。
これを研究するために,我々はウルドゥー語でストーリーペアを注意深く収集し,アノテータ間の共感を解釈する主観性は文化的背景とは無関係であることがわかった。
論文 参考訳(メタデータ) (2024-06-17T06:22:20Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z) - SoulChat: Improving LLMs' Empathy, Listening, and Comfort Abilities
through Fine-tuning with Multi-turn Empathy Conversations [19.11368665202549]
心理学的なカウンセリングの分野で大きな言語モデルを適用する場合、彼らはしばしば普遍的なアドバイスを提供する。
我々は200万以上のサンプルからなるマルチターン共感的会話データセットを構築した。
複数回対話履歴を用いて微調整すると,LLMの共感能力が著しく向上することを示した。
論文 参考訳(メタデータ) (2023-11-01T03:49:52Z) - Harnessing Large Language Models' Empathetic Response Generation
Capabilities for Online Mental Health Counselling Support [1.9336815376402723]
大規模言語モデル(LLM)は、様々な情報検索や推論タスクで顕著なパフォーマンスを示している。
本研究は,メンタルヘルスカウンセリング環境下での会話において,共感反応を誘発するLLMの能力について検討した。
我々は、ジェネレーティブ・プレトレーニング(GPT)のバージョン3.5とバージョン4、Vicuna FastChat-T5、Pathways Language Model(PaLM)バージョン2、Falcon-7B-Instructの5つのLCMを選択した。
論文 参考訳(メタデータ) (2023-10-12T03:33:06Z) - Editing Personality for Large Language Models [73.59001811199823]
本稿では,Large Language Models (LLMs) の性格特性の編集に焦点をあてた革新的なタスクを紹介する。
このタスクに対処する新しいベンチマークデータセットであるPersonalityEditを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:02:36Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using EmotionBench [83.41621219298489]
心理学からの感情評価理論を用いて,Large Language Models (LLMs) の人為的能力を評価する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z) - EmpHi: Generating Empathetic Responses with Human-like Intents [15.209172627484246]
本研究では,人間の共感的意図に基づく共感的反応を生成する新しいモデル,EmpHiを提案する。
EmHiは、潜在的な共感的意図と離散的な潜伏変数の分布を学習し、暗黙的および明示的な意図表現を組み合わせ、様々な共感的意図で反応を生成する。
実験によると、EmpHiは、自動評価と人的評価の両方において、共感、関連性、多様性の観点から、最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2022-04-26T09:49:49Z) - Exemplars-guided Empathetic Response Generation Controlled by the
Elements of Human Communication [88.52901763928045]
そこで本稿では, インターロケータへの共感を伝達する, 造形モデルによる細かな構造的特性の解明に先立って, 模範的手法を提案する。
これらの手法は, 自動評価指標と人的評価指標の両方の観点から, 共感的応答品質の大幅な改善をもたらすことを実証的に示す。
論文 参考訳(メタデータ) (2021-06-22T14:02:33Z) - Towards Persona-Based Empathetic Conversational Models [58.65492299237112]
共感的会話モデルは、多くのドメインにおけるユーザの満足度とタスク結果を改善することが示されている。
心理学において、ペルソナは人格と高い相関関係があることが示され、それによって共感に影響を及ぼす。
本研究では,ペルソナに基づく共感的会話に対する新たな課題を提案し,ペルソナが共感的反応に与える影響に関する最初の経験的研究を示す。
論文 参考訳(メタデータ) (2020-04-26T08:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。