論文の概要: Emotion-Aware Response Generation Using Affect-Enriched Embeddings with LLMs
- arxiv url: http://arxiv.org/abs/2410.01306v1
- Date: Wed, 2 Oct 2024 08:01:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 21:49:06.973774
- Title: Emotion-Aware Response Generation Using Affect-Enriched Embeddings with LLMs
- Title(参考訳): LLMを用いた感情認識型埋め込みによる感情応答生成
- Authors: Abdur Rasool, Muhammad Irfan Shahzad, Hafsa Aslam, Vincent Chan,
- Abstract要約: 本研究は,精神医学的応用における大規模言語モデル(LLM)の感情的・文脈的理解を高めることの課題に対処する。
LLAMA 2、Flan-T5、ChatGPT 3.0、ChatGPT 4.0といった最先端のLLMと、複数の感情レキシコンを統合する新しいフレームワークを導入する。
一次データセットは、カウンセリング・アンド・サイコセラピー・データベースから2000以上の治療セッションの書き起こしを含み、不安、うつ病、トラウマ、中毒に関する議論をカバーしている。
- 参考スコア(独自算出の注目度): 0.585143166250719
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is a need for empathetic and coherent responses in automated chatbot-facilitated psychotherapy sessions. This study addresses the challenge of enhancing the emotional and contextual understanding of large language models (LLMs) in psychiatric applications. We introduce a novel framework that integrates multiple emotion lexicons, including NRC Emotion Lexicon, VADER, WordNet, and SentiWordNet, with state-of-the-art LLMs such as LLAMA 2, Flan-T5, ChatGPT 3.0, and ChatGPT 4.0. The primary dataset comprises over 2,000 therapy session transcripts from the Counseling and Psychotherapy database, covering discussions on anxiety, depression, trauma, and addiction. We segment the transcripts into smaller chunks, enhancing them with lexical features and computing embeddings using BERT, GPT-3, and RoBERTa to capture semantic and emotional nuances. These embeddings are stored in a FAISS vector database, enabling efficient similarity search and clustering based on cosine similarity. Upon user query, the most relevant segments are retrieved and provided as context to the LLMs, significantly improving the models' ability to generate empathetic and contextually appropriate responses. Experimental evaluations demonstrate that in-corporating emotion lexicons enhances empathy, coherence, informativeness, and fluency scores. Our findings highlight the critical role of emotional embeddings in improving LLM performance for psychotherapy.
- Abstract(参考訳): 自動チャットボットファシリケート精神療法セッションでは共感的かつ一貫性のある反応が必要である。
本研究は,精神医学的応用における大規模言語モデル(LLM)の感情的・文脈的理解を高めることの課題に対処する。
我々は,NRC Emotion Lexicon, VADER, WordNet, SentiWordNetなどの複数の感情レキシコンを,LAMA2, Flan-T5, ChatGPT 3.0, ChatGPT 4.0といった最先端のLLMと統合する新しいフレームワークを提案する。
一次データセットは、カウンセリング・アンド・サイコセラピー・データベースから2000以上の治療セッションの書き起こしを含み、不安、うつ病、トラウマ、中毒に関する議論をカバーしている。
テキストを小さなチャンクに分割し、語彙的特徴で拡張し、BERT、GPT-3、RoBERTaを用いて埋め込みを計算し、意味的および感情的なニュアンスを捉える。
これらの埋め込みはFAISSベクトルデータベースに格納され、コサイン類似性に基づいた効率的な類似性探索とクラスタリングを可能にする。
ユーザクエリでは、最も関連性の高いセグメントが検索され、LLMのコンテキストとして提供され、共感的かつコンテキスト的に適切な応答を生成するモデルの能力が大幅に向上する。
実験により, 感情の語彙が共感, コヒーレンス, 情報性, 流布度を高めることが確認された。
精神療法におけるLLM改善における感情埋め込みの重要性について検討した。
関連論文リスト
- Script-Strategy Aligned Generation: Aligning LLMs with Expert-Crafted Dialogue Scripts and Therapeutic Strategies for Psychotherapy [17.07905574770501]
現在のシステムは厳格で規則に基づく設計に依存しており、治療的会話を導くために専門家が作成したスクリプトに大きく依存している。
大規模言語モデル(LLM)の最近の進歩は、より柔軟な相互作用の可能性を提供するが、制御性と透明性は欠如している。
完全にスクリプト化されたコンテンツへの依存を減らすフレキシブルなアライメントアプローチである Script-Strategy Aligned Generation (SSAG)' を提案する。
論文 参考訳(メタデータ) (2024-11-11T05:14:14Z) - Towards Empathetic Conversational Recommender Systems [77.53167131692]
本稿では,共感型会話レコメンデータ(ECR)フレームワークを提案する。
ECRには、感情対応アイテムレコメンデーションと感情対応応答生成という、2つの主要なモジュールが含まれている。
ReDialデータセットの実験は、推奨精度を高め、ユーザの満足度を向上させる上で、我々のフレームワークの有効性を検証する。
論文 参考訳(メタデータ) (2024-08-30T15:43:07Z) - Are Large Language Models Possible to Conduct Cognitive Behavioral Therapy? [13.0263170692984]
大規模言語モデル(LLM)が検証され、心理的補助療法の新たな可能性を提供する。
精神保健の専門家は、LSMを治療に使用することについて多くの懸念を抱いている。
自然言語処理性能に優れた4つのLLM変種を評価した。
論文 参考訳(メタデータ) (2024-07-25T03:01:47Z) - APTNESS: Incorporating Appraisal Theory and Emotion Support Strategies for Empathetic Response Generation [71.26755736617478]
共感反応生成は、他人の感情を理解するように設計されている。
検索強化と感情支援戦略統合を組み合わせたフレームワークを開発する。
我々の枠組みは認知的・情緒的共感の両面からLLMの共感能力を高めることができる。
論文 参考訳(メタデータ) (2024-07-23T02:23:37Z) - Chain of Empathy: Enhancing Empathetic Response of Large Language Models Based on Psychotherapy Models [2.679689033125693]
本稿では,心理療法の知見を活かして,大規模言語モデル(LLM)を誘導し,人間の感情状態を理解する新しい方法である「共感の連鎖(CoE)」を提案する。
この方法は認知行動療法(CBT)、弁証的行動療法(DBT)、人中心療法(PCT)、現実療法(RT)など様々な心理療法のアプローチにインスパイアされている。
論文 参考訳(メタデータ) (2023-11-02T02:21:39Z) - Harnessing Large Language Models' Empathetic Response Generation
Capabilities for Online Mental Health Counselling Support [1.9336815376402723]
大規模言語モデル(LLM)は、様々な情報検索や推論タスクで顕著なパフォーマンスを示している。
本研究は,メンタルヘルスカウンセリング環境下での会話において,共感反応を誘発するLLMの能力について検討した。
我々は、ジェネレーティブ・プレトレーニング(GPT)のバージョン3.5とバージョン4、Vicuna FastChat-T5、Pathways Language Model(PaLM)バージョン2、Falcon-7B-Instructの5つのLCMを選択した。
論文 参考訳(メタデータ) (2023-10-12T03:33:06Z) - Chat2Brain: A Method for Mapping Open-Ended Semantic Queries to Brain
Activation Maps [59.648646222905235]
そこで本研究では,テキスト2画像モデルであるText2BrainにLLMを組み合わせ,セマンティッククエリを脳活性化マップにマッピングするChat2Brainを提案する。
テキストクエリのより複雑なタスクに対して、Chat2Brainが可塑性なニューラルアクティベーションパターンを合成できることを実証した。
論文 参考訳(メタデータ) (2023-09-10T13:06:45Z) - Building Emotional Support Chatbots in the Era of LLMs [64.06811786616471]
我々は,Large Language Models (LLMs) の計算能力で人間の洞察を合成する革新的な方法論を導入する。
また,ChatGPTの文脈内学習の可能性を利用して,ExTESと呼ばれる感情支援対話データセットを生成する。
次に、LLaMAモデルに高度なチューニング手法を展開し、多様なトレーニング戦略の影響を検証し、最終的に感情的支援の相互作用に細心の注意を払ってLLMを出力する。
論文 参考訳(メタデータ) (2023-08-17T10:49:18Z) - A Hierarchical Regression Chain Framework for Affective Vocal Burst
Recognition [72.36055502078193]
本稿では,声帯からの感情認識のための連鎖回帰モデルに基づく階層的枠組みを提案する。
データスパシティの課題に対処するため、レイヤワイドおよび時間アグリゲーションモジュールを備えた自己教師付き学習(SSL)表現も使用しています。
提案されたシステムは、ACII Affective Vocal Burst (A-VB) Challenge 2022に参加し、「TWO」および「CULTURE」タスクで第1位となった。
論文 参考訳(メタデータ) (2023-03-14T16:08:45Z) - MAFW: A Large-scale, Multi-modal, Compound Affective Database for
Dynamic Facial Expression Recognition in the Wild [56.61912265155151]
大規模複合感情データベースMAFWを提案する。
各クリップには、複雑な感情カテゴリーと、クリップ内の被験者の感情行動を記述する2つの文が注釈付けされている。
複合感情のアノテーションでは、それぞれのクリップは、怒り、嫌悪感、恐怖、幸福、中立、悲しみ、驚き、軽蔑、不安、無力感、失望など、広く使われている11の感情のうちの1つ以上に分類される。
論文 参考訳(メタデータ) (2022-08-01T13:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。