論文の概要: Empathetic Conversational Systems: A Review of Current Advances, Gaps,
and Opportunities
- arxiv url: http://arxiv.org/abs/2206.05017v2
- Date: Wed, 9 Nov 2022 00:02:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-13 20:12:15.686398
- Title: Empathetic Conversational Systems: A Review of Current Advances, Gaps,
and Opportunities
- Title(参考訳): 共感型会話システム:最近の進歩、ギャップ、機会のレビュー
- Authors: Aravind Sesagiri Raamkumar, Yinping Yang
- Abstract要約: 多くの研究が共感の利点を認識し、共感を会話システムに取り入れ始めた。
本稿では,5つのレビュー次元を用いて,急速に成長するこの分野について検討する。
- 参考スコア(独自算出の注目度): 2.741266294612776
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Empathy is a vital factor that contributes to mutual understanding, and joint
problem-solving. In recent years, a growing number of studies have recognized
the benefits of empathy and started to incorporate empathy in conversational
systems. We refer to this topic as empathetic conversational systems. To
identify the critical gaps and future opportunities in this topic, this paper
examines this rapidly growing field using five review dimensions: (i)
conceptual empathy models and frameworks, (ii) adopted empathy-related
concepts, (iii) datasets and algorithmic techniques developed, (iv) evaluation
strategies, and (v) state-of-the-art approaches. The findings show that most
studies have centered on the use of the EMPATHETICDIALOGUES dataset, and the
text-based modality dominates research in this field. Studies mainly focused on
extracting features from the messages of the users and the conversational
systems, with minimal emphasis on user modeling and profiling. Notably, studies
that have incorporated emotion causes, external knowledge, and affect matching
in the response generation models, have obtained significantly better results.
For implementation in diverse real-world settings, we recommend that future
studies should address key gaps in areas of detecting and authenticating
emotions at the entity level, handling multimodal inputs, displaying more
nuanced empathetic behaviors, and encompassing additional dialogue system
features.
- Abstract(参考訳): 共感は相互理解と共同問題解決に寄与する重要な要素である。
近年、多くの研究が共感の利点を認識し、会話システムへの共感の導入を開始した。
我々はこの話題を共感的な会話システムと呼ぶ。
このトピックにおける重要なギャップと今後の可能性を明らかにするために,5つのレビュー次元を用いて,急速に成長するこの分野について検討する。
(i)概念共感モデル及び枠組み
(ii)共感に関する概念を取り入れた。
(iii)データセット及びアルゴリズム技術の開発
(iv)評価戦略、及び
(v)最先端のアプローチ。
本研究はempatheticdialoguesデータセットの利用を中心とした研究であり,本研究におけるテキストベースモダリティが主流となっている。
主にユーザと会話システムのメッセージから特徴を抽出することに焦点を当て、ユーザモデリングとプロファイリングに最小限の重点を置いている。
特に、感情原因、外部知識、および反応生成モデルにおける影響マッチングを組み込んだ研究は、より優れた結果を得た。
実世界の多様な環境において実施するために、将来の研究は、エンティティレベルでの感情の検出と認証、マルチモーダル入力の処理、よりニュアンスな共感行動の表示、追加の対話システム機能を含む領域における重要なギャップに対処することを推奨する。
関連論文リスト
- Empathy Detection from Text, Audiovisual, Audio or Physiological Signals: Task Formulations and Machine Learning Methods [5.7306786636466995]
共感の検出は、社会、医療、教育に潜在的な応用がある。
広範かつ重複するトピックであるにもかかわらず、機械学習を利用した共感検出の道はいまだに探索されていない。
我々は、Affective Computingベースの共感領域における課題、研究ギャップ、潜在的な応用について論じる。
論文 参考訳(メタデータ) (2023-10-30T08:34:12Z) - Automatic Sensor-free Affect Detection: A Systematic Literature Review [0.0]
本稿では,センサレス感情検出に関する総合的な文献レビューを行う。
この分野の明らかな成熟度は、モデルの一貫した性能によって証明されているにもかかわらず、将来の研究には十分な範囲がある。
モデル開発プラクティスやメソッドの洗練も必要です。
論文 参考訳(メタデータ) (2023-10-11T13:24:27Z) - Re-mine, Learn and Reason: Exploring the Cross-modal Semantic
Correlations for Language-guided HOI detection [57.13665112065285]
ヒューマンオブジェクトインタラクション(HOI)検出は、コンピュータビジョンの課題である。
本稿では,構造化テキスト知識を組み込んだHOI検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-25T14:20:52Z) - Expanding the Role of Affective Phenomena in Multimodal Interaction
Research [57.069159905961214]
マルチモーダルインタラクション, 感情計算, 自然言語処理において, 選ばれたカンファレンスから16,000以上の論文を調査した。
本論文では,感情関連論文910を同定し,情緒現象の役割について分析した。
我々は、人間の社会的行動や認知状態の機械的理解を高めるために、AIシステムによって感情と感情の予測がどのように使用されるかについて、限られた研究結果を得た。
論文 参考訳(メタデータ) (2023-05-18T09:08:39Z) - Social Influence Dialogue Systems: A Scoping Survey of the Efforts
Towards Influence Capabilities of Dialogue Systems [50.57882213439553]
社会影響対話システムは、説得、交渉、治療を行うことができる。
これらのスキルを備えた対話システムには、正式な定義やカテゴリは存在しない。
この研究は、この新興地域でのより専用の研究と議論を促すために、社会影響対話システムの包括的参照となる。
論文 参考訳(メタデータ) (2022-10-11T17:57:23Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Affect Analysis in-the-wild: Valence-Arousal, Expressions, Action Units
and a Unified Framework [83.21732533130846]
Aff-Wild と Aff-Wild2 の2つである。
これは、これらのデータベースで訓練された深層ニューラルネットワークの2つのクラスの設計を示す。
インパクト認識を共同で学び、効果的に一般化し、実行することができる新しいマルチタスクおよび全体主義のフレームワークが提示されます。
論文 参考訳(メタデータ) (2021-03-29T17:36:20Z) - Temporal aggregation of audio-visual modalities for emotion recognition [0.5352699766206808]
本研究では,時間的オフセットの異なる時間的オフセットと時間的ウィンドウからの音声・視覚的モダリティを組み合わせた感情認識のためのマルチモーダル融合手法を提案する。
提案手法は,文献と人間の精度評価から,他の手法よりも優れている。
論文 参考訳(メタデータ) (2020-07-08T18:44:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。