論文の概要: EMO-Reasoning: Benchmarking Emotional Reasoning Capabilities in Spoken Dialogue Systems
- arxiv url: http://arxiv.org/abs/2508.17623v2
- Date: Tue, 26 Aug 2025 02:30:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 13:17:04.071792
- Title: EMO-Reasoning: Benchmarking Emotional Reasoning Capabilities in Spoken Dialogue Systems
- Title(参考訳): EMO推論:音声対話システムにおける感情推論能力のベンチマーク
- Authors: Jingwen Liu, Kan Jen Cheng, Jiachen Lian, Akshay Anand, Rishi Jain, Faith Qiao, Robin Netzorg, Huang-Cheng Chou, Tingle Li, Guan-Ting Lin, Gopala Anumanchipalli,
- Abstract要約: EMO-Reasoningは、対話システムにおける感情的コヒーレンスを評価するためのベンチマークである。
マルチターン対話における感情遷移を評価するために,クロスターン感情推論スコアを提案する。
- 参考スコア(独自算出の注目度): 25.920610612373608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Speech emotions play a crucial role in human-computer interaction, shaping engagement and context-aware communication. Despite recent advances in spoken dialogue systems, a holistic system for evaluating emotional reasoning is still lacking. To address this, we introduce EMO-Reasoning, a benchmark for assessing emotional coherence in dialogue systems. It leverages a curated dataset generated via text-to-speech to simulate diverse emotional states, overcoming the scarcity of emotional speech data. We further propose the Cross-turn Emotion Reasoning Score to assess the emotion transitions in multi-turn dialogues. Evaluating seven dialogue systems through continuous, categorical, and perceptual metrics, we show that our framework effectively detects emotional inconsistencies, providing insights for improving current dialogue systems. By releasing a systematic evaluation benchmark, we aim to advance emotion-aware spoken dialogue modeling toward more natural and adaptive interactions.
- Abstract(参考訳): 音声の感情は、人間とコンピュータの相互作用、エンゲージメントの形成、コンテキスト認識コミュニケーションにおいて重要な役割を果たす。
近年の音声対話システムの発展にもかかわらず、感情的推論を評価するための全体論的システムはいまだに欠落している。
そこで本研究では,対話システムにおける感情的コヒーレンスを評価するためのベンチマークであるEMO-Reasoningを紹介する。
テキストから音声への変換によって生成されたキュレートされたデータセットを活用し、感情的な音声データの不足を克服し、多様な感情状態をシミュレートする。
さらに,マルチターン対話における感情遷移を評価するために,クロスターン感情推論スコアを提案する。
連続的,分類的,知覚的指標を用いて7つの対話システムを評価することで,我々のフレームワークは感情的不整合を効果的に検出し,現在の対話システムを改善するための洞察を提供する。
システム評価ベンチマークを公開することにより,より自然な,適応的な対話に向けて,感情認識型音声対話モデルの構築を目指す。
関連論文リスト
- AV-EmoDialog: Chat with Audio-Visual Users Leveraging Emotional Cues [37.96886343501444]
AV-EmoDialogは,ユーザの音声・視覚入力からの言語情報や非言語情報を利用して,より応答性が高く共感的な対話を生成するための対話システムである。
AV-EmoDialogは、音声と視覚の対話における感情の手がかりを体系的に活用し、音声から音声の内容と感情のトーンを抽出し、視覚からきめ細かい表情を分析し、これらの手がかりを統合し、エンドツーエンドで感情的な反応を生成する。
論文 参考訳(メタデータ) (2024-12-23T05:24:26Z) - Personality-affected Emotion Generation in Dialog Systems [67.40609683389947]
ダイアログシステムに与えられた個性に基づいて感情を生成する新しいタスクであるパーソナリティ影響感情生成を提案する。
本課題の課題,すなわち,(1)個性と感情的要因を不均一に統合し,(2)対話場面における多粒性感情情報を抽出する。
その結果,感情生成性能はマクロF1では13%,重み付きF1では5%向上することが示唆された。
論文 参考訳(メタデータ) (2024-04-03T08:48:50Z) - Attention-based Interactive Disentangling Network for Instance-level
Emotional Voice Conversion [81.1492897350032]
感情音声変換(Emotional Voice Conversion)は、非感情成分を保存しながら、与えられた感情に応じて音声を操作することを目的とする。
本稿では,音声変換にインスタンスワイドな感情知識を活用する,意図に基づく対話型ディスタングネットワーク(AINN)を提案する。
論文 参考訳(メタデータ) (2023-12-29T08:06:45Z) - E-CORE: Emotion Correlation Enhanced Empathetic Dialogue Generation [33.57399405783864]
本稿では,感情相関を改良した共感対話生成フレームワークを提案する。
具体的には、文脈に基づく感情の相互作用を捉えるために、マルチレゾリューション感情グラフを考案した。
そこで我々は,感情相関強化デコーダを提案し,新しい相関認識アグリゲーションとソフト/ハード戦略を提案する。
論文 参考訳(メタデータ) (2023-11-25T12:47:39Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - deep learning of segment-level feature representation for speech emotion
recognition in conversations [9.432208348863336]
そこで本稿では,意図的文脈依存と話者感応的相互作用をキャプチャする対話型音声感情認識手法を提案する。
まず、事前訓練されたVGGishモデルを用いて、個々の発話におけるセグメントベース音声表現を抽出する。
第2に、注意的双方向リカレントユニット(GRU)は、文脈に敏感な情報をモデル化し、話者内および話者間依存関係を共同で探索する。
論文 参考訳(メタデータ) (2023-02-05T16:15:46Z) - Empathetic Dialogue Generation via Sensitive Emotion Recognition and
Sensible Knowledge Selection [47.60224978460442]
情緒的対話生成のためのシリアル・アンド・感情知識相互作用(SEEK)法を提案する。
我々は,会話中の感情のダイナミックス(感情の流れ)に敏感な微粒なエンコーディング戦略を用いて,応答の感情依存特性を予測するとともに,知識と感情の相互作用をモデル化し,より敏感な応答を生成する新しい枠組みを設計する。
論文 参考訳(メタデータ) (2022-10-21T03:51:18Z) - Simulated Annealing for Emotional Dialogue Systems [22.96717845092991]
対話生成のための特定の感情を表現するタスクについて検討する。
提案手法は,従来の最先端手法と比較して,感情の精度が12%向上したことを示す。
論文 参考訳(メタデータ) (2021-09-22T13:17:17Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z) - Knowledge Bridging for Empathetic Dialogue Generation [52.39868458154947]
外部知識の不足により、感情的な対話システムは暗黙の感情を知覚し、限られた対話履歴から感情的な対話を学ぶことが困難になる。
本研究では,情緒的対話生成における感情を明確に理解し,表現するために,常識的知識や情緒的語彙的知識などの外部知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-09-21T09:21:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。