論文の概要: Conversational Medical AI: Ready for Practice
- arxiv url: http://arxiv.org/abs/2411.12808v1
- Date: Tue, 19 Nov 2024 19:00:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:13:25.791135
- Title: Conversational Medical AI: Ready for Practice
- Title(参考訳): 会話型医療AI - 実践の準備
- Authors: Antoine Lizée, Pierre-Auguste Beaucoté, James Whitbeck, Marion Doumeingts, Anaël Beaugnon, Isabelle Feldhaus,
- Abstract要約: 実際の医療環境において,医師が監督する会話エージェントの大規模評価を行う。
当社のエージェントであるMoは、既存の医療アドバイスチャットサービスに統合されました。
- 参考スコア(独自算出の注目度): 0.19791587637442667
- License:
- Abstract: The shortage of doctors is creating a critical squeeze in access to medical expertise. While conversational Artificial Intelligence (AI) holds promise in addressing this problem, its safe deployment in patient-facing roles remains largely unexplored in real-world medical settings. We present the first large-scale evaluation of a physician-supervised LLM-based conversational agent in a real-world medical setting. Our agent, Mo, was integrated into an existing medical advice chat service. Over a three-week period, we conducted a randomized controlled experiment with 926 cases to evaluate patient experience and satisfaction. Among these, Mo handled 298 complete patient interactions, for which we report physician-assessed measures of safety and medical accuracy. Patients reported higher clarity of information (3.73 vs 3.62 out of 4, p < 0.05) and overall satisfaction (4.58 vs 4.42 out of 5, p < 0.05) with AI-assisted conversations compared to standard care, while showing equivalent levels of trust and perceived empathy. The high opt-in rate (81% among respondents) exceeded previous benchmarks for AI acceptance in healthcare. Physician oversight ensured safety, with 95% of conversations rated as "good" or "excellent" by general practitioners experienced in operating a medical advice chat service. Our findings demonstrate that carefully implemented AI medical assistants can enhance patient experience while maintaining safety standards through physician supervision. This work provides empirical evidence for the feasibility of AI deployment in healthcare communication and insights into the requirements for successful integration into existing healthcare services.
- Abstract(参考訳): 医師の不足は、医療の専門知識へのアクセスを著しく圧迫している。
会話型人工知能(AI)は、この問題に対処することを約束しているが、患者が直面する役割への安全な配置は、現実世界の医療環境では、ほとんど探索されていない。
現実の医療環境において,医師が指導するLDMベースの会話エージェントの大規模評価を初めて行った。
当社のエージェントであるMoは、既存の医療アドバイスチャットサービスに統合されました。
3週間にわたり,926例のランダム化コントロール実験を行い,患者の経験と満足度を評価した。
このうち, Mo は298件の患者間相互作用を処理し, 医師が測定した安全性と医療精度を報告した。
患者は、信頼度と共感のレベルを同等に示しながら、AIによる会話を標準治療と比較し、情報の明瞭度(3.73対3.62対4.p < 0.05)と全体的な満足度(4.58対4.42対5.p < 0.05)を報告した。
高いオプトイン率(回答者の81%)は、医療におけるAI受け入れに関する以前のベンチマークを上回った。
医師の監視は安全を保証し、95%の会話は、医療アドバイスチャットサービスの運用に経験した一般の実践者によって「良い」あるいは「素晴らしい」と評価された。
以上の結果から,慎重に実装されたAIメディカルアシスタントは,医師の監督を通じて安全基準を維持しつつ,患者の体験を向上させることができることがわかった。
この研究は、医療コミュニケーションにおけるAIデプロイメントの実現可能性に関する実証的な証拠と、既存の医療サービスとの統合を成功させるための要件に関する洞察を提供する。
関連論文リスト
- Detecting Bias and Enhancing Diagnostic Accuracy in Large Language Models for Healthcare [0.2302001830524133]
バイアスドAIによる医療アドバイスと誤診は患者の安全を脅かす可能性がある。
本研究では、医療における倫理的かつ正確なAIを促進するために設計された新しいリソースを紹介する。
論文 参考訳(メタデータ) (2024-10-09T06:00:05Z) - People over trust AI-generated medical responses and view them to be as valid as doctors, despite low accuracy [25.91497161129666]
合計300人の参加者が、オンラインヘルスケアプラットフォーム上で医師によって書かれた、あるいは大きな言語モデルによって生成された医療反応の評価を行った。
その結果、被験者はAI生成と医師の反応を効果的に区別できないことがわかった。
論文 参考訳(メタデータ) (2024-08-11T23:41:28Z) - Capabilities of Gemini Models in Medicine [100.60391771032887]
医療専門のマルチモーダルモデルであるMed-Geminiを紹介する。
メドジェニーニを14の医療ベンチマークで評価し,その内10に新たな最先端(SoTA)性能を確立した。
我々の結果は、Med-Geminiの可能性を示唆する証拠を提供するが、より厳密な評価は実世界の展開に先立って重要である。
論文 参考訳(メタデータ) (2024-04-29T04:11:28Z) - Evaluating the Application of ChatGPT in Outpatient Triage Guidance: A Comparative Study [11.37622565068147]
医療における人工知能の統合は、運用効率と健康結果を高めるための変革的な可能性を示している。
ChatGPTのような大規模言語モデル(LLM)は、医療的意思決定をサポートする能力を示している。
本研究の目的は,ChatGPTが提示する応答の整合性を評価することである。
論文 参考訳(メタデータ) (2024-04-27T04:12:02Z) - Healthcare Copilot: Eliciting the Power of General LLMs for Medical
Consultation [96.22329536480976]
医療相談用に設計された医療コパイロットの構築について紹介する。
提案した医療コパイロットは,(1)効果的で安全な患者との対話に責任を負う対話コンポーネント,2)現在の会話データと過去の患者情報の両方を記憶する記憶コンポーネント,3)処理コンポーネント,そして,対話全体を要約し,報告を生成する。
提案したヘルスケア・コパイロットを評価するために,ChatGPT を用いた仮想患者とコーピロとの対話を行う仮想患者と,対話の質を評価するための評価器の2つの役割を自動評価する手法を実装した。
論文 参考訳(メタデータ) (2024-02-20T22:26:35Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - The impact of responding to patient messages with large language model
assistance [4.243020918808522]
ドキュメンテーションの負担はクリニックのバーンアウトに大きく貢献する。
多くの病院が電子カルテシステムに積極的に統合している。
我々は,患者の質問に対する臨床医の回答作成を支援するために,大規模言語モデルの有用性を初めて検討する。
論文 参考訳(メタデータ) (2023-10-26T18:03:46Z) - MedAlign: A Clinician-Generated Dataset for Instruction Following with
Electronic Medical Records [60.35217378132709]
大型言語モデル(LLM)は、人間レベルの流布で自然言語の指示に従うことができる。
医療のための現実的なテキスト生成タスクにおけるLCMの評価は依然として困難である。
我々は、EHRデータのための983の自然言語命令のベンチマークデータセットであるMedAlignを紹介する。
論文 参考訳(メタデータ) (2023-08-27T12:24:39Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - Clinical Camel: An Open Expert-Level Medical Language Model with
Dialogue-Based Knowledge Encoding [31.884600238089405]
臨床研究に適したオープン・大型言語モデル(LLM)であるクリニカル・カメルについて述べる。
QLoRAを用いてLLaMA-2を微調整し,医療用LCMの医療用ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-05-19T23:07:09Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。