論文の概要: Rational Sensibility: LLM Enhanced Empathetic Response Generation Guided
by Self-presentation Theory
- arxiv url: http://arxiv.org/abs/2312.08702v2
- Date: Fri, 15 Dec 2023 07:16:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 12:47:56.885384
- Title: Rational Sensibility: LLM Enhanced Empathetic Response Generation Guided
by Self-presentation Theory
- Title(参考訳): 合理的感性:自己呈示理論によるllm強化共感応答生成
- Authors: Linzhuang Sun, Nan Xu, Jingxuan Wei, Bihui Yu, Liping Bu, Yin Luo
- Abstract要約: 我々は、歴史的対話を意味のある合理的な文に分離する革新的な分類的アプローチを考案した。
我々はLLaMA2-70bを有理脳として使用し、会話に保持される深い論理的情報を分析する。
- 参考スコア(独自算出の注目度): 8.594894523359887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Having the ability to empathize is crucial for accurately representing human
behavior during conversations. Despite numerous research aim to improve the
cognitive capability of models by incorporating external knowledge, there has
been limited attention on the sensible and rational expression of the
conversation itself, which are crucial components of the cognitive empathy.
Guided by self-presentation theory in sociology, we have designed an innovative
categorical approach that segregates historical dialogues into sensible and
rational sentences and subsequently elucidate the context through the designed
attention mechanism. However, the rational information within the conversation
is restricted and the external knowledge used in previous methods have
limitations of semantic contradiction and narrow vision field. Considering the
impressive performance of LLM in the domain of intelligent agent. We employ
LLaMA2-70b as a rational brain to analyze the profound logical information
maintained in conversations, which assists the model assessing the balance of
sensibility and rationality to produce quality empathetic responses.
Experimental evaluations demonstrate that our method outperforms other
comparable methods on both automatic and human evaluations.
- Abstract(参考訳): 共感する能力を持つことは、会話中の人間の行動を正確に表現するために重要である。
外部知識を取り入れたモデル認知能力の向上を目的とした研究が数多く行われているが、認知共感の重要な要素である会話自体の合理的かつ合理的な表現に注意が向けられている。
社会学における自己表現理論に導かれ, 歴史的対話を合理的かつ合理的な文に分離し, その後, 注意機構によって文脈を解明する, 革新的なカテゴリー的アプローチを考案した。
しかし,会話内の有理的な情報は制限されており,従来手法で用いられてきた外部知識は,意味的矛盾や視野の狭さに限界がある。
インテリジェントエージェントの領域におけるllmの印象的なパフォーマンスを考える。
llama2-70bを有理脳として,会話に保持される深い論理情報を分析し,感性と合理性のバランスを評価するモデルを用いて,質的共感応答を生成する。
実験により,本手法は自動評価と人的評価の両方において,他の同等の手法よりも優れていることが示された。
関連論文リスト
- The Phenomenology of Machine: A Comprehensive Analysis of the Sentience of the OpenAI-o1 Model Integrating Functionalism, Consciousness Theories, Active Inference, and AI Architectures [0.0]
OpenAI-o1モデルは、人間のフィードバックから強化学習をトレーニングしたトランスフォーマーベースのAIである。
我々は、RLHFがモデルの内部推論プロセスにどのように影響し、意識的な経験をもたらす可能性があるかを検討する。
以上の結果から,OpenAI-o1モデルでは意識の側面が示され,AIの知覚に関する議論が進行中であることが示唆された。
論文 参考訳(メタデータ) (2024-09-18T06:06:13Z) - Cause-Aware Empathetic Response Generation via Chain-of-Thought Fine-Tuning [12.766893968788263]
共感反応生成は、対話の文脈を理解し、表現された感情に反応する能力を持つエージェントを与える。
先行研究は、主に話者の感情的ラベルを活用することに重点を置いているが、感情の重要性が原因の推論を無視している。
そこで我々は,感情と原因をうまく設計したChain-of-Thoughtプロンプトを通じて統合した原因認識型共感生成手法を提案する。
論文 参考訳(メタデータ) (2024-08-21T13:11:03Z) - APTNESS: Incorporating Appraisal Theory and Emotion Support Strategies for Empathetic Response Generation [71.26755736617478]
共感反応生成は、他人の感情を理解するように設計されている。
検索強化と感情支援戦略統合を組み合わせたフレームワークを開発する。
我々の枠組みは認知的・情緒的共感の両面からLLMの共感能力を高めることができる。
論文 参考訳(メタデータ) (2024-07-23T02:23:37Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - Language-Specific Representation of Emotion-Concept Knowledge Causally
Supports Emotion Inference [44.126681295827794]
この研究は、大規模言語モデル(LLMs)として知られる人工知能の形式を用いて、言語に基づく感情の表現が、新しい状況の感情的意味に関する推論を生成するAIの能力に因果的に寄与するかどうかを評価する。
本研究は,LLMでも知覚モダ表現の欠如による感情の学習が可能であり,言語由来の感情概念知識の感情推論への寄与を強調した。
論文 参考訳(メタデータ) (2023-02-19T14:21:33Z) - DialogueCRN: Contextual Reasoning Networks for Emotion Recognition in
Conversations [0.0]
本稿では,会話コンテキストを認知的視点から完全に理解するための新しい文脈推論ネットワーク(DialogueCRN)を提案する。
感情認知理論(Cognitive Theory of Emotion)に触発された我々は、感情の手がかりを抽出し統合するための多ターン推論モジュールを設計する。
推論モジュールは、人間の独特な認知的思考を模倣する直感的検索プロセスと意識的推論プロセスを反復的に実行する。
論文 参考訳(メタデータ) (2021-06-03T16:47:38Z) - CARE: Commonsense-Aware Emotional Response Generation with Latent
Concepts [42.106573635463846]
本研究では,コモンセンスを意識した感情応答生成のための新しいモデルCAREを提案する。
まず,その応答の感情的潜在概念を共通認識で学習し,構築する枠組みを提案する。
次に, 潜在概念を反応生成に協調的に組み込む3つの手法を提案する。
論文 参考訳(メタデータ) (2020-12-15T15:47:30Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。