論文の概要: People over trust AI-generated medical responses and view them to be as valid as doctors, despite low accuracy
- arxiv url: http://arxiv.org/abs/2408.15266v1
- Date: Sun, 11 Aug 2024 23:41:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-01 16:42:01.559859
- Title: People over trust AI-generated medical responses and view them to be as valid as doctors, despite low accuracy
- Title(参考訳): 精度が低いにもかかわらず、AIが生成した医療反応を信頼し、医師と同じくらい有効であると見なす人々
- Authors: Shruthi Shekar, Pat Pataranutaporn, Chethan Sarabu, Guillermo A. Cecchi, Pattie Maes,
- Abstract要約: 合計300人の参加者が、オンラインヘルスケアプラットフォーム上で医師によって書かれた、あるいは大きな言語モデルによって生成された医療反応の評価を行った。
その結果、被験者はAI生成と医師の反応を効果的に区別できないことがわかった。
- 参考スコア(独自算出の注目度): 25.91497161129666
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a comprehensive analysis of how AI-generated medical responses are perceived and evaluated by non-experts. A total of 300 participants gave evaluations for medical responses that were either written by a medical doctor on an online healthcare platform, or generated by a large language model and labeled by physicians as having high or low accuracy. Results showed that participants could not effectively distinguish between AI-generated and Doctors' responses and demonstrated a preference for AI-generated responses, rating High Accuracy AI-generated responses as significantly more valid, trustworthy, and complete/satisfactory. Low Accuracy AI-generated responses on average performed very similar to Doctors' responses, if not more. Participants not only found these low-accuracy AI-generated responses to be valid, trustworthy, and complete/satisfactory but also indicated a high tendency to follow the potentially harmful medical advice and incorrectly seek unnecessary medical attention as a result of the response provided. This problematic reaction was comparable if not more to the reaction they displayed towards doctors' responses. This increased trust placed on inaccurate or inappropriate AI-generated medical advice can lead to misdiagnosis and harmful consequences for individuals seeking help. Further, participants were more trusting of High Accuracy AI-generated responses when told they were given by a doctor and experts rated AI-generated responses significantly higher when the source of the response was unknown. Both experts and non-experts exhibited bias, finding AI-generated responses to be more thorough and accurate than Doctors' responses but still valuing the involvement of a Doctor in the delivery of their medical advice. Ensuring AI systems are implemented with medical professionals should be the future of using AI for the delivery of medical advice.
- Abstract(参考訳): 本稿では,AIによる医療反応の認識と,非専門家による評価を包括的に分析する。
合計300人の被験者が、オンライン医療プラットフォーム上で医師によって書かれたか、あるいは大きな言語モデルによって生成され、医師が高い精度または低い精度で評価した。
その結果、参加者はAI生成反応と医師の反応を効果的に区別することができず、AI生成反応の嗜好を示し、AI生成反応をより正確で信頼性があり、満足度が高いと評価した。
低精度のAI生成レスポンスは、医師のレスポンスと非常によく似ているが、それ以上ではない。
参加者は、これらの低精度のAI生成応答が有効で、信頼性があり、完全な/満足であるだけでなく、潜在的に有害な医療アドバイスに従う傾向を示し、提供された応答の結果、不適切な医療的注意を誤って求める傾向を示した。
この問題に対する反応は、医師の反応に対して提示された反応と同等であった。
この不正確または不適切なAI生成医療アドバイスに対する信頼の高まりは、助けを求める個人に対して誤った診断と有害な結果をもたらす可能性がある。
さらに、被験者は医師から与えられたと告げられたとき、AIが生成するレスポンスをより信頼しており、専門家は、応答のソースが不明な場合には、AIが生成するレスポンスがかなり高いと評価した。
専門家も非専門家も偏見を示し、AIが生成した反応は医師の反応よりも徹底的かつ正確であることがわかったが、それでも医師が医師のアドバイスを届ける際の関与を評価していた。
AIシステムが医療専門家によって実装されることを保証することは、医療アドバイスの配信にAIを使用する未来であるべきです。
関連論文リスト
- Conversational Medical AI: Ready for Practice [0.19791587637442667]
実際の医療環境において,医師が監督する会話エージェントの大規模評価を行う。
当社のエージェントであるMoは、既存の医療アドバイスチャットサービスに統合されました。
論文 参考訳(メタデータ) (2024-11-19T19:00:31Z) - Explainable AI Enhances Glaucoma Referrals, Yet the Human-AI Team Still Falls Short of the AI Alone [6.740852152639975]
各種のAI説明は、提供者が即時または緊急の専門紹介を必要とする患者を区別するのにどのように役立つかを検討する。
我々は、高リスク患者を特定するためのプロキシとして、通常のアイケアデータから緑内障手術のニーズを予測するための説明可能なAIアルゴリズムを構築した。
本研究は,本質的・ポストホックな説明性を取り入れ,ヒト-AIチームのパフォーマンスを評価するために,眼科医とオンライン研究を行った。
論文 参考訳(メタデータ) (2024-05-24T03:01:20Z) - The impact of responding to patient messages with large language model
assistance [4.243020918808522]
ドキュメンテーションの負担はクリニックのバーンアウトに大きく貢献する。
多くの病院が電子カルテシステムに積極的に統合している。
我々は,患者の質問に対する臨床医の回答作成を支援するために,大規模言語モデルの有用性を初めて検討する。
論文 参考訳(メタデータ) (2023-10-26T18:03:46Z) - Understanding how the use of AI decision support tools affect critical
thinking and over-reliance on technology by drug dispensers in Tanzania [0.0]
薬局のディスペンサーは、提示された臨床症例のヴィグネットの鑑別診断を決定するとき、AI技術を使用していた。
私たちは、AIがその決定について説明を提供していない場合でも、ディスペンサーがAIによる決定に頼っていたことを発見した。
論文 参考訳(メタデータ) (2023-02-19T05:59:06Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Towards the Use of Saliency Maps for Explaining Low-Quality
Electrocardiograms to End Users [45.62380752173638]
診断に医用画像を使用する場合,画像が高品質であることが重要である。
遠隔医療において一般的な問題は、患者が診療所を退院した後にのみ、品質問題が警告されることである。
本稿では,低品質な医用画像をリアルタイムにフラグ付け,説明するためのAIシステムの開発について報告する。
論文 参考訳(メタデータ) (2022-07-06T14:53:26Z) - Explainable AI for medical imaging: Explaining pneumothorax diagnoses
with Bayesian Teaching [4.707325679181196]
ベイズ教養に基づく説明の導入と評価を行う。
医療専門家が説明に晒すことで、AIの診断決定を予測できることがわかりました。
これらの結果から,説明可能なAIは医用画像における人間とAIの協調を支援するのに有用であることが示唆された。
論文 参考訳(メタデータ) (2021-06-08T20:49:11Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z) - Artificial Artificial Intelligence: Measuring Influence of AI
'Assessments' on Moral Decision-Making [48.66982301902923]
ドナー腎アロケーションに関する道徳的意思決定に対する疑似AIからのフィードバックの効果を検討した。
患者が腎臓を受容器するかどうかの判断は、AIによって与えられると認識される参加者自身の意思決定に関するフィードバックに影響される可能性があるという証拠がいくつか見出された。
論文 参考訳(メタデータ) (2020-01-13T14:15:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。