論文の概要: AI chatbots versus human healthcare professionals: a systematic review and meta-analysis of empathy in patient care
- arxiv url: http://arxiv.org/abs/2602.05628v1
- Date: Thu, 05 Feb 2026 13:09:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.934645
- Title: AI chatbots versus human healthcare professionals: a systematic review and meta-analysis of empathy in patient care
- Title(参考訳): AIチャットボット対ヒト医療専門家--患者の共感の体系的レビューとメタ分析
- Authors: Alastair Howcroft, Amber Bennett-Weston, Ahmad Khan, Joseff Griffiths, Simon Gay, Jeremy Howick,
- Abstract要約: 医療における人工知能(AI)ベースのチャットボットの利用は急速に拡大している。
一部の研究は、AIチャットボットが人間の医療専門家(HCP)よりも共感的に優れていることを示唆している。
我々は,AIチャットボットとヒトHCPを共感尺度で比較する研究のために,複数のデータベースを検索した。
13の研究では、AIに対する感情評価が統計的に有意に高く、皮膚科では人間の反応が好まれる2つの研究しか報告されていない。
- 参考スコア(独自算出の注目度): 0.10262304700896197
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background: Empathy is widely recognized for improving patient outcomes, including reduced pain and anxiety and improved satisfaction, and its absence can cause harm. Meanwhile, use of artificial intelligence (AI)-based chatbots in healthcare is rapidly expanding, with one in five general practitioners using generative AI to assist with tasks such as writing letters. Some studies suggest AI chatbots can outperform human healthcare professionals (HCPs) in empathy, though findings are mixed and lack synthesis. Sources of data: We searched multiple databases for studies comparing AI chatbots using large language models with human HCPs on empathy measures. We assessed risk of bias with ROBINS-I and synthesized findings using random-effects meta-analysis where feasible, whilst avoiding double counting. Areas of agreement: We identified 15 studies (2023-2024). Thirteen studies reported statistically significantly higher empathy ratings for AI, with only two studies situated in dermatology favouring human responses. Of the 15 studies, 13 provided extractable data and were suitable for pooling. Meta-analysis of those 13 studies, all utilising ChatGPT-3.5/4, showed a standardized mean difference of 0.87 (95% CI, 0.54-1.20) favouring AI (P < .00001), roughly equivalent to a two-point increase on a 10-point scale. Areas of controversy: Studies relied on text-based assessments that overlook non-verbal cues and evaluated empathy through proxy raters. Growing points: Our findings indicate that, in text-only scenarios, AI chatbots are frequently perceived as more empathic than human HCPs. Areas timely for developing research: Future research should validate these findings with direct patient evaluations and assess whether emerging voice-enabled AI systems can deliver similar empathic advantages.
- Abstract(参考訳): 背景:共感は、痛みや不安の軽減や満足度の向上など、患者の成果を改善するために広く認識されており、その欠如は害をもたらす可能性がある。
一方、医療における人工知能(AI)ベースのチャットボットの利用は急速に拡大しており、生成AIを使って文字を書くなどのタスクを支援する5人に1人が一般の実践者だ。
一部の研究では、AIチャットボットは共感において人間の医療専門家(HCP)より優れていると示唆されているが、発見は混在し、合成が欠如している。
データソース: 大規模な言語モデルと人間のHCPを用いた共感尺度を用いたAIチャットボットの比較研究のために、複数のデータベースを検索した。
ROBINS-Iを用いて偏見のリスクを評価し, 二重カウントを避けつつ, ランダムエフェクトメタアナリシスを用いて分析した。
合意の領域:15の研究(2023-2024)を特定した。
13の研究では、AIに対する感情評価が統計的に有意に高く、皮膚科では人間の反応が好まれる2つの研究しか報告されていない。
15の研究のうち13が抽出可能なデータを提供し、プールに適していた。
これらの13つの研究のメタ分析は、すべてChatGPT-3.5/4を利用しており、標準平均差は0.87(95% CI, 0.54-1.20)で、AI(P < .00001)を好んでいる。
論争の領域: 非言語的手がかりを見落とし、プロキシレーダを通じて共感を評価するテキストベースの評価に依拠した研究。
成長点: テキストのみのシナリオでは、AIチャットボットは人間のHCPよりも共感的だと見なされることが多い。
今後の研究は、これらの発見を患者の直接的な評価で検証し、新しい音声対応AIシステムが同様の共感的優位性をもたらすかどうかを評価するべきである。
関連論文リスト
- Hallucination vs interpretation: rethinking accuracy and precision in AI-assisted data extraction for knowledge synthesis [0.9898534984111934]
我々は,大規模言語モデル(LLM)を用いてデータ抽出を自動化する抽出プラットフォームを開発した。
我々は、AIを187の出版物で人間の反応と比較し、スコーピングレビューから17の質問を抽出した。
AIの多様性は幻覚よりも解釈可能性に依存している。
論文 参考訳(メタデータ) (2025-08-13T03:33:30Z) - Effect of Static vs. Conversational AI-Generated Messages on Colorectal Cancer Screening Intent: a Randomized Controlled Trial [5.429833789548265]
大規模言語モデル(LLM)チャットボットは説得力のあるコミュニケーションの可能性を増す。
915名の成人(45~75歳)に大腸癌検診を施行した。
どちらのAI介入も12ポイント(12.9-13.8/100)以上のスツールテストの意図を、専門家の材料では7.5倍に向上させた。
論文 参考訳(メタデータ) (2025-07-10T22:46:43Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Human Bias in the Face of AI: Examining Human Judgment Against Text Labeled as AI Generated [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Assessing Empathy in Large Language Models with Real-World Physician-Patient Interactions [9.327472312657392]
医療領域へのLarge Language Models(LLMs)の統合は、患者のケアとサポートを大幅に強化する可能性がある。
本研究は、ChatGPTが医師が通常提供するものよりも共感の度合いが高いかどうかを調査する。
マヨクリニックから患者メッセージと医師の回答の非特定データセットを収集し,ChatGPTを用いて代替応答を生成する。
論文 参考訳(メタデータ) (2024-05-26T01:58:57Z) - How Reliable AI Chatbots are for Disease Prediction from Patient Complaints? [0.0]
本研究は,AIチャットボット,特にGPT 4.0,Claude 3 Opus,Gemini Ultra 1.0の信頼性を,救急部門における患者の苦情から疾患を予測するために検討した。
結果は、GPT 4.0は数ショットデータの増加で高い精度を達成し、Gemini Ultra 1.0は少ないサンプルで良好に動作し、Claude 3 Opusは一貫性のある性能を維持していることを示唆している。
論文 参考訳(メタデータ) (2024-05-21T22:00:13Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Can Machines Imitate Humans? Integrative Turing-like tests for Language and Vision Demonstrate a Narrowing Gap [56.611702960809644]
3つの言語タスクと3つの視覚タスクで人間を模倣するAIの能力をベンチマークする。
次に,人間1,916名,AI10名を対象に,72,191名のチューリング様試験を行った。
模倣能力は従来のAIパフォーマンス指標と最小限の相関を示した。
論文 参考訳(メタデータ) (2022-11-23T16:16:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。