論文の概要: Safeguarding Patient Trust in the Age of AI: Tackling Health Misinformation with Explainable AI
- arxiv url: http://arxiv.org/abs/2509.04052v1
- Date: Thu, 04 Sep 2025 09:29:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:10.117428
- Title: Safeguarding Patient Trust in the Age of AI: Tackling Health Misinformation with Explainable AI
- Title(参考訳): AI時代における患者の信頼を守る: 説明可能なAIによる健康上の誤報に対処する
- Authors: Sueun Hong, Shuojie Fu, Ovidiu Serban, Brianna Bao, James Kinross, Francesa Toni, Guy Martin, Uddhav Vaghela,
- Abstract要約: 本稿では,医療情報と戦うためにESSRC INDICATEプロジェクトを通じて開発された説明可能なAIフレームワークを提案する。
17の研究の体系的なレビューにより、医療における透明なAIシステムの必要性が明らかとなった。
- 参考スコア(独自算出の注目度): 0.6323908398583084
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: AI-generated health misinformation poses unprecedented threats to patient safety and healthcare system trust globally. This white paper presents an explainable AI framework developed through the EPSRC INDICATE project to combat medical misinformation while enhancing evidence-based healthcare delivery. Our systematic review of 17 studies reveals the urgent need for transparent AI systems in healthcare. The proposed solution demonstrates 95% recall in clinical evidence retrieval and integrates novel trustworthiness classifiers achieving 76% F1 score in detecting biomedical misinformation. Results show that explainable AI can transform traditional 6-month expert review processes into real-time, automated evidence synthesis while maintaining clinical rigor. This approach offers a critical intervention to preserve healthcare integrity in the AI era.
- Abstract(参考訳): AIが生み出した健康上の誤報は、世界中の患者の安全と医療システムの信頼に前例のない脅威をもたらす。
本稿では,ESSRC INDICATEプロジェクトを通じて開発され,エビデンスに基づく医療提供の促進を図った説明可能なAIフレームワークを提案する。
17の研究の体系的なレビューにより、医療における透明なAIシステムの必要性が明らかとなった。
提案手法は, 臨床証拠検索における95%のリコールを実証し, バイオメディカル誤報の検出において, 76%のF1スコアを達成できる新規信頼度分類器を統合した。
その結果、説明可能なAIは、従来の6ヶ月のエキスパートレビュープロセスを、臨床の厳格さを維持しながら、リアルタイムで自動的なエビデンス合成に変換することができる。
このアプローチは、AI時代の医療の完全性を維持するための重要な介入を提供する。
関連論文リスト
- Industrialized Deception: The Collateral Effects of LLM-Generated Misinformation on Digital Ecosystems [47.03825808787752]
本稿では,文献レビューから実践的対策へ移行する。
本稿では,Large Language Models(LLM)とマルチモーダルシステムによるAI生成コンテンツの改善について報告する。
我々は, LLMに基づく検出, 接種アプローチ, および生成AIの二重利用特性を含む緩和戦略について論じる。
論文 参考訳(メタデータ) (2026-01-29T16:42:22Z) - DispatchMAS: Fusing taxonomy and artificial intelligence agents for emergency medical services [49.70819009392778]
大規模言語モデル (LLM) とマルチエージェントシステム (MAS) は、ディスパッチを増強する機会を提供する。
本研究の目的は,現実的なシナリオをシミュレートする分類基盤型マルチエージェントシステムの開発と評価である。
論文 参考訳(メタデータ) (2025-10-24T08:01:21Z) - The doctor will polygraph you now: ethical concerns with AI for fact-checking patients [0.23248585800296404]
社会行動予測のための人工知能(AI)手法が提案されている。
これにより、患者のデータに対する敬意、プライバシ、コントロールに関する新たな倫理的懸念が生まれます。
論文 参考訳(メタデータ) (2024-08-15T02:55:30Z) - Leveraging Generative AI for Clinical Evidence Summarization Needs to Ensure Trustworthiness [47.51360338851017]
エビデンスベースの医療は、医療の意思決定と実践を最大限に活用することで、医療の質を向上させることを約束する。
様々な情報源から得ることができる医学的証拠の急速な成長は、明らかな情報の収集、評価、合成に挑戦する。
大規模言語モデルによって実証された、生成AIの最近の進歩は、困難な作業の促進を約束する。
論文 参考訳(メタデータ) (2023-11-19T03:29:45Z) - Designing Interpretable ML System to Enhance Trust in Healthcare: A Systematic Review to Proposed Responsible Clinician-AI-Collaboration Framework [13.215318138576713]
論文は、解釈可能なAIプロセス、方法、応用、および医療における実装の課題についてレビューする。
医療における堅牢な解釈可能性アプローチの重要な役割を包括的に理解することを目的としている。
論文 参考訳(メタデータ) (2023-11-18T12:29:18Z) - The impact of responding to patient messages with large language model
assistance [4.243020918808522]
ドキュメンテーションの負担はクリニックのバーンアウトに大きく貢献する。
多くの病院が電子カルテシステムに積極的に統合している。
我々は,患者の質問に対する臨床医の回答作成を支援するために,大規模言語モデルの有用性を初めて検討する。
論文 参考訳(メタデータ) (2023-10-26T18:03:46Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - COVID-Net USPro: An Open-Source Explainable Few-Shot Deep Prototypical
Network to Monitor and Detect COVID-19 Infection from Point-of-Care
Ultrasound Images [66.63200823918429]
COVID-Net USProは、最小限の超音波画像から高精度で新型コロナウイルス陽性の患者を監視し、検出する。
ネットワーク全体では99.65%の精度、99.7%のリコール、99.67%の精度で5発の撮影で訓練された。
論文 参考訳(メタデータ) (2023-01-04T16:05:51Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Explainable AI meets Healthcare: A Study on Heart Disease Dataset [0.0]
目的は、様々な技術を用いて説明可能なAIシステムの理解性と解釈可能性について実践者に啓蒙することである。
本論文は、心臓病データセットに基づく例を収録し、信頼性を高めるために説明可能性技術をどのように好むべきかを解明する。
論文 参考訳(メタデータ) (2020-11-06T05:18:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。