論文の概要: Safeguarding Patient Trust in the Age of AI: Tackling Health Misinformation with Explainable AI
- arxiv url: http://arxiv.org/abs/2509.04052v1
- Date: Thu, 04 Sep 2025 09:29:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:10.117428
- Title: Safeguarding Patient Trust in the Age of AI: Tackling Health Misinformation with Explainable AI
- Title(参考訳): AI時代における患者の信頼を守る: 説明可能なAIによる健康上の誤報に対処する
- Authors: Sueun Hong, Shuojie Fu, Ovidiu Serban, Brianna Bao, James Kinross, Francesa Toni, Guy Martin, Uddhav Vaghela,
- Abstract要約: 本稿では,医療情報と戦うためにESSRC INDICATEプロジェクトを通じて開発された説明可能なAIフレームワークを提案する。
17の研究の体系的なレビューにより、医療における透明なAIシステムの必要性が明らかとなった。
- 参考スコア(独自算出の注目度): 0.6323908398583084
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: AI-generated health misinformation poses unprecedented threats to patient safety and healthcare system trust globally. This white paper presents an explainable AI framework developed through the EPSRC INDICATE project to combat medical misinformation while enhancing evidence-based healthcare delivery. Our systematic review of 17 studies reveals the urgent need for transparent AI systems in healthcare. The proposed solution demonstrates 95% recall in clinical evidence retrieval and integrates novel trustworthiness classifiers achieving 76% F1 score in detecting biomedical misinformation. Results show that explainable AI can transform traditional 6-month expert review processes into real-time, automated evidence synthesis while maintaining clinical rigor. This approach offers a critical intervention to preserve healthcare integrity in the AI era.
- Abstract(参考訳): AIが生み出した健康上の誤報は、世界中の患者の安全と医療システムの信頼に前例のない脅威をもたらす。
本稿では,ESSRC INDICATEプロジェクトを通じて開発され,エビデンスに基づく医療提供の促進を図った説明可能なAIフレームワークを提案する。
17の研究の体系的なレビューにより、医療における透明なAIシステムの必要性が明らかとなった。
提案手法は, 臨床証拠検索における95%のリコールを実証し, バイオメディカル誤報の検出において, 76%のF1スコアを達成できる新規信頼度分類器を統合した。
その結果、説明可能なAIは、従来の6ヶ月のエキスパートレビュープロセスを、臨床の厳格さを維持しながら、リアルタイムで自動的なエビデンス合成に変換することができる。
このアプローチは、AI時代の医療の完全性を維持するための重要な介入を提供する。
関連論文リスト
- Leveraging Generative AI for Clinical Evidence Summarization Needs to Ensure Trustworthiness [47.51360338851017]
エビデンスベースの医療は、医療の意思決定と実践を最大限に活用することで、医療の質を向上させることを約束する。
様々な情報源から得ることができる医学的証拠の急速な成長は、明らかな情報の収集、評価、合成に挑戦する。
大規模言語モデルによって実証された、生成AIの最近の進歩は、困難な作業の促進を約束する。
論文 参考訳(メタデータ) (2023-11-19T03:29:45Z) - The impact of responding to patient messages with large language model
assistance [4.243020918808522]
ドキュメンテーションの負担はクリニックのバーンアウトに大きく貢献する。
多くの病院が電子カルテシステムに積極的に統合している。
我々は,患者の質問に対する臨床医の回答作成を支援するために,大規模言語モデルの有用性を初めて検討する。
論文 参考訳(メタデータ) (2023-10-26T18:03:46Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - Explainable AI meets Healthcare: A Study on Heart Disease Dataset [0.0]
目的は、様々な技術を用いて説明可能なAIシステムの理解性と解釈可能性について実践者に啓蒙することである。
本論文は、心臓病データセットに基づく例を収録し、信頼性を高めるために説明可能性技術をどのように好むべきかを解明する。
論文 参考訳(メタデータ) (2020-11-06T05:18:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。