論文の概要: Empathy Detection from Text, Audiovisual, Audio or Physiological Signals: Task Formulations and Machine Learning Methods
- arxiv url: http://arxiv.org/abs/2311.00721v2
- Date: Wed, 26 Jun 2024 07:10:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-27 19:34:10.110026
- Title: Empathy Detection from Text, Audiovisual, Audio or Physiological Signals: Task Formulations and Machine Learning Methods
- Title(参考訳): テキスト・音声・音声・生理的信号からの共感検出:タスク定式化と機械学習
- Authors: Md Rakibul Hasan, Md Zakir Hossain, Shreya Ghosh, Aneesh Krishna, Tom Gedeon,
- Abstract要約: 共感の検出は、社会、医療、教育に潜在的な応用がある。
広範かつ重複するトピックであるにもかかわらず、機械学習を利用した共感検出の道はいまだに探索されていない。
我々は、Affective Computingベースの共感領域における課題、研究ギャップ、潜在的な応用について論じる。
- 参考スコア(独自算出の注目度): 5.7306786636466995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Empathy indicates an individual's ability to understand others. Over the past few years, empathy has drawn attention from various disciplines, including but not limited to Affective Computing, Cognitive Science and Psychology. Detecting empathy has potential applications in society, healthcare and education. Despite being a broad and overlapping topic, the avenue of empathy detection leveraging Machine Learning remains underexplored from a systematic literature review perspective. We collected 828 papers from 10 well-known databases, systematically screened them and analysed the final 61 papers. Our analyses reveal several prominent task formulations $-$ including empathy on localised utterances or overall expressions, unidirectional or parallel empathy, and emotional contagion $-$ in monadic, dyadic and group interactions. Empathy detection methods are summarised based on four input modalities $-$ text, audiovisual, audio and physiological signals $-$ thereby presenting modality-specific network architecture design protocols. We discuss challenges, research gaps and potential applications in the Affective Computing-based empathy domain, which can facilitate new avenues of exploration. We further enlist the public availability of datasets and codes. We believe that our work is a stepping stone to developing a robust empathy detection system that can be deployed in practice to enhance the overall well-being of human life.
- Abstract(参考訳): 共感は、個人が他人を理解する能力を示す。
過去数年間、共感は、Affective Computing、Cognitive Science and Psychologyに限らず、様々な分野から注目を集めてきた。
共感の検出は、社会、医療、教育に潜在的な応用がある。
広範かつ重複するトピックであるにもかかわらず、機械学習を利用した共感検出の道は、体系的な文献レビューの観点から、まだ解明されていない。
10の有名なデータベースから828の論文を収集し、それらを体系的にスクリーニングし、最終61の論文を分析しました。
分析の結果、局所的な発話や全体的な表現に対する共感、一方向または平行な共感、モナディック、ダイアディック、グループ間相互作用における感情的伝染など、いくつかの顕著なタスクの定式化が明らかとなった。
共感検出方法は、4つの入力モダリティ$-$テキスト、オーディオ、オーディオ、生理的信号$-$に基づいて要約され、モダリティ固有のネットワークアーキテクチャ設計プロトコルが提示される。
Affective Computingベースの共感ドメインにおける課題,研究ギャップ,潜在的な応用について論じる。
私たちはさらに、データセットとコードの公開を列挙しています。
我々の研究は、人間の生活の全体的幸福を高めるために実際に展開できる堅牢な共感検出システムを開発するための一歩だと信じています。
関連論文リスト
- APTNESS: Incorporating Appraisal Theory and Emotion Support Strategies for Empathetic Response Generation [71.26755736617478]
共感反応生成は、他人の感情を理解するように設計されている。
検索強化と感情支援戦略統合を組み合わせたフレームワークを開発する。
我々の枠組みは認知的・情緒的共感の両面からLLMの共感能力を高めることができる。
論文 参考訳(メタデータ) (2024-07-23T02:23:37Z) - Enablers and Barriers of Empathy in Software Developer and User
Interaction: A Mixed Methods Case Study [11.260371501613994]
開発者とエンドユーザ間の共感の実践について検討した。
我々は共感を誘発するために必要な認識の性質と共感の実現者を特定した。
共感の障壁と、これらの障壁を克服するための潜在的な戦略を発見した。
論文 参考訳(メタデータ) (2024-01-17T06:42:21Z) - Wish I Can Feel What You Feel: A Neural Approach for Empathetic Response
Generation [2.5255184843886225]
本稿では,感情の原因,知識グラフ,共感応答生成のためのコミュニケーション機構という,3つの要素を統合した新しいアプローチを提案する。
実験結果から,鍵成分を組み込むことにより,より情報的,共感的な反応が生じることが示された。
論文 参考訳(メタデータ) (2022-12-05T03:20:37Z) - Vision+X: A Survey on Multimodal Learning in the Light of Data [64.03266872103835]
様々なソースからのデータを組み込んだマルチモーダル機械学習が,ますます普及している研究分野となっている。
我々は、視覚、音声、テキスト、動きなど、各データフォーマットの共通点と特異点を分析する。
本稿では,表現学習と下流アプリケーションレベルの両方から,マルチモーダル学習に関する既存の文献を考察する。
論文 参考訳(メタデータ) (2022-10-05T13:14:57Z) - Affection: Learning Affective Explanations for Real-World Visual Data [50.28825017427716]
我々は,85,007枚の公開画像に対して,感情反応と自由形式のテキスト説明を含む大規模データセットを研究コミュニティに導入し,共有する。
本研究は, 被写体集団に大きな支持を得て, 潜在的に有意な感情反応をとらえる上で, 重要な共通基盤があることを示唆する。
私たちの研究は、より豊かで、より人間中心で、感情に敏感な画像分析システムへの道を開くものです。
論文 参考訳(メタデータ) (2022-10-04T22:44:17Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Empathetic Conversational Systems: A Review of Current Advances, Gaps,
and Opportunities [2.741266294612776]
多くの研究が共感の利点を認識し、共感を会話システムに取り入れ始めた。
本稿では,5つのレビュー次元を用いて,急速に成長するこの分野について検討する。
論文 参考訳(メタデータ) (2022-05-09T05:19:48Z) - Neural Fields in Visual Computing and Beyond [54.950885364735804]
機械学習の最近の進歩は、座標ベースニューラルネットワークを用いた視覚コンピューティング問題の解決への関心が高まっている。
ニューラルネットワークは、3D形状と画像の合成、人体のアニメーション、3D再構成、ポーズ推定に成功している。
本報告は、文脈、数学的基礎、および、ニューラルネットワークに関する文献の広範なレビューを提供する。
論文 参考訳(メタデータ) (2021-11-22T18:57:51Z) - Modeling User Empathy Elicited by a Robot Storyteller [2.309914459672557]
本稿では,ロボットエージェントとのインタラクション中に引き起こされたユーザ共感をモデル化するための最初のアプローチを提案する。
我々は8つの古典的機械学習モデルと2つのディープラーニングモデルを用いて共感を検出する実験を行った。
XGBoostをベースとした我々の最高性能のアプローチは、ビデオの共感を検出すると精度が69%、AUCが72%に達しました。
論文 参考訳(メタデータ) (2021-07-29T21:56:19Z) - Exemplars-guided Empathetic Response Generation Controlled by the
Elements of Human Communication [88.52901763928045]
そこで本稿では, インターロケータへの共感を伝達する, 造形モデルによる細かな構造的特性の解明に先立って, 模範的手法を提案する。
これらの手法は, 自動評価指標と人的評価指標の両方の観点から, 共感的応答品質の大幅な改善をもたらすことを実証的に示す。
論文 参考訳(メタデータ) (2021-06-22T14:02:33Z) - A Computational Approach to Understanding Empathy Expressed in
Text-Based Mental Health Support [11.736179504987712]
オンラインメンタルヘルスプラットフォームにおいて共感がどのように表現されるかを理解するための計算手法を提案する。
我々は,テキストベースの会話における共感のコミュニケーションを特徴付けるための,理論的基盤の統一フレームワークを開発する。
論文 参考訳(メタデータ) (2020-09-17T17:47:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。