論文の概要: Integrating Explainable AI in Medical Devices: Technical, Clinical and Regulatory Insights and Recommendations
- arxiv url: http://arxiv.org/abs/2505.06620v1
- Date: Sat, 10 May 2025 12:09:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:48.943933
- Title: Integrating Explainable AI in Medical Devices: Technical, Clinical and Regulatory Insights and Recommendations
- Title(参考訳): 医療機器における説明可能なAIの統合:技術・臨床・規制の視点と勧告
- Authors: Dima Alattal, Asal Khoshravan Azar, Puja Myles, Richard Branson, Hatim Abdulhussein, Allan Tucker,
- Abstract要約: 本稿では、英国医療・医療製品規制機関(MHRA)が主催する専門家ワーキンググループからの洞察と勧告について述べる。
このグループは、医療専門家、規制当局、データサイエンティストで構成されており、臨床意思決定の文脈において、異なるAIアルゴリズムから出力を評価することに重点を置いている。
臨床環境で医療用AIデバイスの安全性と信頼性を確保するためには,AI手法の導入が不可欠である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is a growing demand for the use of Artificial Intelligence (AI) and Machine Learning (ML) in healthcare, particularly as clinical decision support systems to assist medical professionals. However, the complexity of many of these models, often referred to as black box models, raises concerns about their safe integration into clinical settings as it is difficult to understand how they arrived at their predictions. This paper discusses insights and recommendations derived from an expert working group convened by the UK Medicine and Healthcare products Regulatory Agency (MHRA). The group consisted of healthcare professionals, regulators, and data scientists, with a primary focus on evaluating the outputs from different AI algorithms in clinical decision-making contexts. Additionally, the group evaluated findings from a pilot study investigating clinicians' behaviour and interaction with AI methods during clinical diagnosis. Incorporating AI methods is crucial for ensuring the safety and trustworthiness of medical AI devices in clinical settings. Adequate training for stakeholders is essential to address potential issues, and further insights and recommendations for safely adopting AI systems in healthcare settings are provided.
- Abstract(参考訳): 医療分野における人工知能(AI)と機械学習(ML)の使用に対する需要が高まっている。
しかしながら、ブラックボックスモデルと呼ばれるこれらのモデルの複雑さは、その予測にどのように到達したかを理解するのが難しいため、臨床環境への安全な統合に関する懸念を提起する。
本稿では,英国の医療・医療製品規制機関(MHRA)が主催する専門家ワーキンググループから得られた知見と勧告について述べる。
このグループは、医療専門家、規制当局、データサイエンティストで構成されており、臨床意思決定の文脈において、異なるAIアルゴリズムから出力を評価することに重点を置いている。
さらに、臨床診断中の臨床医の行動とAI手法との相互作用を調査するパイロット研究の結果を評価した。
臨床環境で医療用AIデバイスの安全性と信頼性を確保するためには,AI手法の導入が不可欠である。
ステークホルダーのための適切なトレーニングは潜在的な問題に対処するために不可欠であり、医療設定にAIシステムを安全に採用するためのさらなる洞察と勧告が提供される。
関連論文リスト
- Artificial Intelligence-Driven Clinical Decision Support Systems [5.010570270212569]
この章は、医療で信頼できるAIシステムを作るには、公平さ、説明可能性、プライバシーを慎重に考慮する必要があることを強調している。
AIによる公平な医療提供を保証するという課題は強調され、臨床予測モデルのバイアスを特定し緩和する方法が議論されている。
この議論は、ディープラーニングモデルのデータ漏洩からモデル説明に対する高度な攻撃に至るまで、医療AIシステムのプライバシ脆弱性の分析に進展している。
論文 参考訳(メタデータ) (2025-01-16T16:17:39Z) - Towards Next-Generation Medical Agent: How o1 is Reshaping Decision-Making in Medical Scenarios [46.729092855387165]
本稿では,医療用AIエージェントのバックボーンLSMの選択について検討する。
我々の研究結果は、o1の診断精度と一貫性を高める能力を示し、よりスマートでより応答性の高いAIツールへの道を開いた。
論文 参考訳(メタデータ) (2024-11-16T18:19:53Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - Designing Interpretable ML System to Enhance Trust in Healthcare: A Systematic Review to Proposed Responsible Clinician-AI-Collaboration Framework [13.215318138576713]
論文は、解釈可能なAIプロセス、方法、応用、および医療における実装の課題についてレビューする。
医療における堅牢な解釈可能性アプローチの重要な役割を包括的に理解することを目的としている。
論文 参考訳(メタデータ) (2023-11-18T12:29:18Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Bridging the gap between AI and Healthcare sides: towards developing
clinically relevant AI-powered diagnosis systems [18.95904791202457]
医療・インフォマティクスにおける医療画像の専門家,医師,ジェネラリストを対象に,臨床的に価値のあるAI研究ワークショップを開催した。
そこで, 医師を対象としたアンケート調査により, データ拡張と医師養成の観点から, GANに基づく画像拡張プロジェクトを評価した。
論文 参考訳(メタデータ) (2020-01-12T12:45:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。