論文の概要: Incongruent Positivity: When Miscalibrated Positivity Undermines Online Supportive Conversations
- arxiv url: http://arxiv.org/abs/2509.10184v1
- Date: Fri, 12 Sep 2025 12:25:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:08.079736
- Title: Incongruent Positivity: When Miscalibrated Positivity Undermines Online Supportive Conversations
- Title(参考訳): 相反する肯定性: 過度な肯定性がオンライン支援会話を損なうとき
- Authors: Leen Almajed, Abeer ALdayel,
- Abstract要約: 感情的に支持的な会話では、よく意図された肯定性は時に誤火し、否定的、最小化、非現実的に楽観的な反応をもたらす。
本研究では,この不一致肯定の現象を,ヒトおよびLDM生成反応の正の支持の誤校正表現として検討した。
以上の結果から, 感情認知と肯定的影響のバランスをとるために, 一般的な肯定的反応を単に生成するだけではなく, 協調的支援策も検討する必要性が浮き彫りとなった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In emotionally supportive conversations, well-intended positivity can sometimes misfire, leading to responses that feel dismissive, minimizing, or unrealistically optimistic. We examine this phenomenon of incongruent positivity as miscalibrated expressions of positive support in both human and LLM generated responses. To this end, we collected real user-assistant dialogues from Reddit across a range of emotional intensities and generated additional responses using large language models for the same context. We categorize these conversations by intensity into two levels: Mild, which covers relationship tension and general advice, and Severe, which covers grief and anxiety conversations. This level of categorization enables a comparative analysis of how supportive responses vary across lower and higher stakes contexts. Our analysis reveals that LLMs are more prone to unrealistic positivity through dismissive and minimizing tone, particularly in high-stakes contexts. To further study the underlying dimensions of this phenomenon, we finetune LLMs on datasets with strong and weak emotional reactions. Moreover, we developed a weakly supervised multilabel classifier ensemble (DeBERTa and MentalBERT) that shows improved detection of incongruent positivity types across two sorts of concerns (Mild and Severe). Our findings shed light on the need to move beyond merely generating generic positive responses and instead study the congruent support measures to balance positive affect with emotional acknowledgment. This approach offers insights into aligning large language models with affective expectations in the online supportive dialogue, paving the way toward context-aware and trust preserving online conversation systems.
- Abstract(参考訳): 感情的に支持的な会話では、よく意図された肯定性は時に誤火し、否定的、最小化、非現実的に楽観的な反応をもたらす。
本研究では,この不一致肯定の現象を,ヒトおよびLDM生成反応の正の支持の誤校正表現として検討した。
この目的のために,Redditのユーザ・アシスタント・ダイアログをさまざまな感情的強度で収集し,同じ文脈で大規模言語モデルを用いて追加の応答を生成した。
我々はこれらの会話を、関係の緊張と一般的なアドバイスを包含するマイルドと、悲しみと不安の会話を包含するセビアの2つのレベルに分類する。
この分類のレベルは、支持的応答が低利得と高利得の文脈でどのように変化するかの比較分析を可能にする。
分析の結果,LLMは非現実的な肯定的傾向が強く,特に高い文脈において,否定的かつ最小限の音色を呈することが明らかとなった。
この現象の基礎となる次元を更に研究するために、強い感情反応と弱い感情反応を持つデータセット上でLLMを微調整する。
さらに,弱教師付きマルチラベル分類器アンサンブル (DeBERTa, MentalBERT) を開発した。
以上の結果から, 感情認知と肯定的影響のバランスをとるために, 一般的な肯定的反応を単に生成するだけではなく, 協調的支援策も検討する必要性が浮き彫りとなった。
このアプローチは、オンラインサポート対話において、大きな言語モデルを感情的な期待と整合させ、コンテキストを認識し、オンライン会話システムを保存するための道を開くための洞察を提供する。
関連論文リスト
- Conversations: Love Them, Hate Them, Steer Them [10.014248704653]
大きな言語モデル (LLMs) は会話の流布を増大させるが、人間のようなニュアンスな感情表現でそれらを注入することは大きな課題である。
本稿では,LLaMA 3.1-8Bにより,より人間らしく感情的なニュアンスを示すことができることを示す。
論文 参考訳(メタデータ) (2025-05-23T02:58:45Z) - Objective quantification of mood states using large language models [0.0]
大規模言語モデル(LLM)は、広い範囲のコンテキストにまたがる応答一貫性の優れたレベルを示す。
これらの並列性を活用して、精神状態の定量化の枠組みを確立します。
論文 参考訳(メタデータ) (2025-02-13T16:52:06Z) - Consistency of Responses and Continuations Generated by Large Language Models on Social Media [9.809922019554461]
大規模言語モデル(LLM)は、テキスト生成において顕著な能力を示すが、ソーシャルメディアの文脈における感情的一貫性とセマンティック・コヒーレンス(セマンティック・コヒーレンス)は十分に理解されていない。
本研究では,2つのオープンソースモデル,Gemma と Llama を用いて,LLM が情緒的内容をどのように処理し,セマンティックな関係を維持するかを検討する。
論文 参考訳(メタデータ) (2025-01-14T13:19:47Z) - Can LLMs Understand the Implication of Emphasized Sentences in Dialogue? [64.72966061510375]
強調は人間のコミュニケーションにおいて重要な要素であり、対話における純粋テキストを超えて話者の意図と含意を示す。
本稿では,強調の意味を抽出した強調注釈付き対話サンプルを用いたベンチマークであるEmphasized-Talkを紹介する。
オープンソースと商用の両方で様々な大規模言語モデル(LLM)を評価し,その性能を重要視して評価する。
論文 参考訳(メタデータ) (2024-06-16T20:41:44Z) - Empathy Through Multimodality in Conversational Interfaces [1.360649555639909]
会話型健康エージェント(CHA)は、感情的なインテリジェンスを組み込むためにテキスト分析を超越するニュアンスなサポートを提供することで、医療を再定義している。
本稿では、豊かなマルチモーダル対話のためのLCMベースのCHAについて紹介する。
マルチモーダルな手がかりを解析することにより、ユーザの感情状態に順応的に解釈し、応答し、文脈的に認識され、共感的に反響する音声応答を提供する。
論文 参考訳(メタデータ) (2024-05-08T02:48:29Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - DRESS: Instructing Large Vision-Language Models to Align and Interact with Humans via Natural Language Feedback [61.28463542324576]
本稿では,大規模言語モデルから自然言語フィードバック(NLF)を革新的に活用する大規模視覚言語モデル(LVLM)であるDRESSを紹介する。
我々は,NLFの新たな分類法を2つの重要なタイプに分類する。
実験の結果、DRESSはより有用な(9.76%)、正直な(11.52%)、無害な(21.03%)を生成できることが示された。
論文 参考訳(メタデータ) (2023-11-16T18:37:29Z) - Facilitating Multi-turn Emotional Support Conversation with Positive
Emotion Elicitation: A Reinforcement Learning Approach [58.88422314998018]
感情支援会話(ESC)は、精神状態を改善するための感情支援(ES)を提供することを目的としている。
既存の作業は、ESへの影響を無視し、感情的なポジティブな移行を導くための明確な目標が欠如している、接地された応答と対応戦略に留まっている。
マルチターンESCを肯定的感情誘発のプロセスとして定式化する新しいパラダイムを導入する。
論文 参考訳(メタデータ) (2023-07-16T09:58:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。