論文の概要: How Can AI Recognize Pain and Express Empathy
- arxiv url: http://arxiv.org/abs/2110.04249v1
- Date: Fri, 8 Oct 2021 16:58:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-11 15:28:07.923361
- Title: How Can AI Recognize Pain and Express Empathy
- Title(参考訳): AIが痛みと表現的共感を認識するには
- Authors: Siqi Cao, Di Fu, Xu Yang, Pablo Barros, Stefan Wermter, Xun Liu,
Haiyan Wu
- Abstract要約: 痛みや共感などの感覚や感情的な経験は、精神的および身体的健康に関係している。
痛みの自動認識の現在の推進力は、ますます多くの医療要件によって動機付けられている。
本稿では,コンピュータによる痛み認識と人工共感実装の現況について概説する。
- 参考スコア(独自算出の注目度): 18.71528144336154
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Sensory and emotional experiences such as pain and empathy are relevant to
mental and physical health. The current drive for automated pain recognition is
motivated by a growing number of healthcare requirements and demands for social
interaction make it increasingly essential. Despite being a trending area, they
have not been explored in great detail. Over the past decades, behavioral
science and neuroscience have uncovered mechanisms that explain the
manifestations of pain. Recently, also artificial intelligence research has
allowed empathic machine learning methods to be approachable. Generally, the
purpose of this paper is to review the current developments for computational
pain recognition and artificial empathy implementation. Our discussion covers
the following topics: How can AI recognize pain from unimodality and
multimodality? Is it necessary for AI to be empathic? How can we create an AI
agent with proactive and reactive empathy? This article explores the challenges
and opportunities of real-world multimodal pain recognition from a
psychological, neuroscientific, and artificial intelligence perspective.
Finally, we identify possible future implementations of artificial empathy and
analyze how humans might benefit from an AI agent equipped with empathy.
- Abstract(参考訳): 痛みや共感などの感覚や感情的な経験は、精神的および身体的健康に関係している。
現在の痛みの自動認識の推進は、多くの医療要件の増加と社会的インタラクションの要求によって動機づけられている。
流行地であるにもかかわらず、その詳細は調査されていない。
過去数十年間、行動科学と神経科学は痛みの現れを説明するメカニズムを発見してきた。
近年、人工知能の研究により、共感型機械学習手法のアプローチが可能になった。
本研究の目的は,コンピュータによる痛み認識と人工共感実装の現況を概観することである。
AIは、一様性や多様性から痛みを認識するにはどうすればよいのか?
AIは共感的である必要があるか?
積極的でリアクティブな共感を持ったAIエージェントをどうやって作るのか?
この記事では、心理学的、神経科学的、人工知能の観点から、現実世界のマルチモーダルな痛み認識の挑戦と機会を探求する。
最後に、人工共感の将来の実装を特定し、共感を備えたAIエージェントから人間がどのように恩恵を受けるかを分析する。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - What Is Required for Empathic AI? It Depends, and Why That Matters for AI Developers and Users [1.4987128108059977]
我々は、共感に関連するさまざまな能力の星座が、異なる共感的AIアプリケーションにとって重要であると論じる。
我々は、共感の傘の下で多様な能力に感謝することが、AIクリエイターとユーザーの両方にとって重要である理由を論じて結論付けた。
論文 参考訳(メタデータ) (2024-08-27T18:27:22Z) - APTNESS: Incorporating Appraisal Theory and Emotion Support Strategies for Empathetic Response Generation [71.26755736617478]
共感反応生成は、他人の感情を理解するように設計されている。
検索強化と感情支援戦略統合を組み合わせたフレームワークを開発する。
我々の枠組みは認知的・情緒的共感の両面からLLMの共感能力を高めることができる。
論文 参考訳(メタデータ) (2024-07-23T02:23:37Z) - Enablers and Barriers of Empathy in Software Developer and User
Interaction: A Mixed Methods Case Study [11.260371501613994]
開発者とエンドユーザ間の共感の実践について検討した。
我々は共感を誘発するために必要な認識の性質と共感の実現者を特定した。
共感の障壁と、これらの障壁を克服するための潜在的な戦略を発見した。
論文 参考訳(メタデータ) (2024-01-17T06:42:21Z) - The Good, The Bad, and Why: Unveiling Emotions in Generative AI [73.94035652867618]
EmotionPromptはAIモデルの性能を向上し、EmotionAttackはそれを妨げうることを示す。
EmotionDecodeによると、AIモデルは人間の脳内のドーパミンのメカニズムに似た感情的な刺激を理解することができる。
論文 参考訳(メタデータ) (2023-12-18T11:19:45Z) - Artificial Empathy Classification: A Survey of Deep Learning Techniques,
Datasets, and Evaluation Scales [0.0]
本稿では,これまでに収集および使用されてきたデータセットとともに,共感の計測と評価のための既存の作業について検討し,評価することを目的とする。
我々のゴールは、その性能を比較することで、AE領域における最先端の手法の活用を強調し、促進することである。
論文 参考訳(メタデータ) (2023-09-04T16:02:59Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Human-AI Collaboration Enables More Empathic Conversations in Text-based
Peer-to-Peer Mental Health Support [10.743204843534512]
AI-in-the-loopエージェントであるHayleyを開発した。このエージェントは、サポートを提供する参加者(ピアサポーター)が助けを求める参加者(フォスター支援者)に対して共感的に反応するのを助けるために、ジャスト・イン・タイムフィードバックを提供する。
我々の人間とAIのコラボレーションアプローチは、ピア間での会話の共感を19.60%増加させます。
支援の難しさを自認するピアサポーターのサブサンプルでは,38.88%の共感が増大している。
論文 参考訳(メタデータ) (2022-03-28T23:37:08Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Modeling User Empathy Elicited by a Robot Storyteller [2.309914459672557]
本稿では,ロボットエージェントとのインタラクション中に引き起こされたユーザ共感をモデル化するための最初のアプローチを提案する。
我々は8つの古典的機械学習モデルと2つのディープラーニングモデルを用いて共感を検出する実験を行った。
XGBoostをベースとした我々の最高性能のアプローチは、ビデオの共感を検出すると精度が69%、AUCが72%に達しました。
論文 参考訳(メタデータ) (2021-07-29T21:56:19Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。