論文の概要: Designing Interpretable ML System to Enhance Trust in Healthcare: A Systematic Review to Proposed Responsible Clinician-AI-Collaboration Framework
- arxiv url: http://arxiv.org/abs/2311.11055v2
- Date: Wed, 10 Apr 2024 16:46:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-11 19:15:52.553649
- Title: Designing Interpretable ML System to Enhance Trust in Healthcare: A Systematic Review to Proposed Responsible Clinician-AI-Collaboration Framework
- Title(参考訳): 医療における信頼を高めるための解釈可能なMLシステムの設計--責任ある臨床医-AI連携フレームワークの提案への体系的レビュー
- Authors: Elham Nasarian, Roohallah Alizadehsani, U. Rajendra Acharya, Kwok-Leung Tsui,
- Abstract要約: 論文は、解釈可能なAIプロセス、方法、応用、および医療における実装の課題についてレビューする。
医療における堅牢な解釈可能性アプローチの重要な役割を包括的に理解することを目的としている。
- 参考スコア(独自算出の注目度): 13.215318138576713
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper explores the significant impact of AI-based medical devices, including wearables, telemedicine, large language models, and digital twins, on clinical decision support systems. It emphasizes the importance of producing outcomes that are not only accurate but also interpretable and understandable to clinicians, addressing the risk that lack of interpretability poses in terms of mistrust and reluctance to adopt these technologies in healthcare. The paper reviews interpretable AI processes, methods, applications, and the challenges of implementation in healthcare, focusing on quality control to facilitate responsible communication between AI systems and clinicians. It breaks down the interpretability process into data pre-processing, model selection, and post-processing, aiming to foster a comprehensive understanding of the crucial role of a robust interpretability approach in healthcare and to guide future research in this area. with insights for creating responsible clinician-AI tools for healthcare, as well as to offer a deeper understanding of the challenges they might face. Our research questions, eligibility criteria and primary goals were identified using Preferred Reporting Items for Systematic reviews and Meta-Analyses guideline and PICO method; PubMed, Scopus and Web of Science databases were systematically searched using sensitive and specific search strings. In the end, 52 publications were selected for data extraction which included 8 existing reviews and 44 related experimental studies. The paper offers general concepts of interpretable AI in healthcare and discuss three-levels interpretability process. Additionally, it provides a comprehensive discussion of evaluating robust interpretability AI in healthcare. Moreover, this survey introduces a step-by-step roadmap for implementing responsible AI in healthcare.
- Abstract(参考訳): 本稿では, ウェアラブル, 遠隔医療, 大規模言語モデル, デジタル双生児などのAIベースの医療機器が臨床意思決定支援システムに与える影響について検討する。
それは、正確であるだけでなく、臨床医に解釈可能で理解可能な結果を生み出すことの重要性を強調し、解釈可能性の欠如が医療にこれらの技術を採用することへの不信と反感のリスクに対処する。
論文は、AIシステムと臨床医間の責任あるコミュニケーションを促進するための品質管理に焦点を当て、解釈可能なAIプロセス、方法、応用、および医療における実装の課題についてレビューする。
これは、解釈可能性プロセスをデータ前処理、モデル選択、後処理に分解し、医療における堅牢な解釈可能性アプローチの重要な役割を包括的に理解し、この分野における将来の研究を導くことを目的としている。
医療のための責任ある臨床医とAIツールを作るための洞察と、彼らが直面している課題のより深い理解を提供する。
研究課題, 適格基準, 主目的は, 事前報告項目とメタ分析ガイドライン, PICO法を用いて同定し, PubMed, Scopus, Web of Scienceデータベースを, センシティブで特定の検索文字列を用いて体系的に検索した。
最終的に、既存の8つのレビューと44の関連する実験研究を含む52の論文がデータ抽出のために選択された。
この論文は、医療における解釈可能なAIの一般的な概念を提供し、3段階の解釈可能性プロセスについて議論する。
さらに、医療における堅牢な解釈可能性AIを評価するための包括的な議論も提供する。
さらに、この調査では、医療に責任あるAIを実装するためのステップバイステップのロードマップを紹介している。
関連論文リスト
- AI-Driven Healthcare: A Survey on Ensuring Fairness and Mitigating Bias [2.398440840890111]
AIアプリケーションは、診断精度、治療のパーソナライゼーション、患者の結果予測を大幅に改善した。
これらの進歩は、実質的な倫理的・公正性の課題ももたらした。
これらのバイアスは、医療提供の格差をもたらし、異なる人口集団の診断精度と治療結果に影響を与える可能性がある。
論文 参考訳(メタデータ) (2024-07-29T02:39:17Z) - Emotional Intelligence Through Artificial Intelligence : NLP and Deep Learning in the Analysis of Healthcare Texts [1.9374282535132377]
本論文は,医療関連テキストにおける感情評価における人工知能の利用に関する方法論的考察である。
我々は、感情分析を強化し、感情を分類し、患者の結果を予測するためにAIを利用する多くの研究を精査する。
AIの倫理的応用を保証すること、患者の機密性を保護すること、アルゴリズムの手続きにおける潜在的なバイアスに対処することを含む、継続的な課題がある。
論文 参考訳(メタデータ) (2024-03-14T15:58:13Z) - Clairvoyance: A Pipeline Toolkit for Medical Time Series [95.22483029602921]
時系列学習は、データ駆動の*クリニカルな意思決定支援のパンとバターである*
Clairvoyanceは、ソフトウェアツールキットとして機能する、統合されたエンドツーエンドのオートMLフレンドリなパイプラインを提案する。
Clairvoyanceは、臨床時系列MLのための包括的で自動化可能なパイプラインの生存可能性を示す最初のものである。
論文 参考訳(メタデータ) (2023-10-28T12:08:03Z) - Validating polyp and instrument segmentation methods in colonoscopy through Medico 2020 and MedAI 2021 Challenges [58.32937972322058]
メディコオートマチックポリープセグメンテーション(Medico 2020)と「メディコ:医療画像の透明性(MedAI 2021)」コンペティション。
本報告では, それぞれのコントリビューションを包括的に分析し, ベストパフォーマンスメソッドの強さを強調し, クリニックへの臨床翻訳の可能性について考察する。
論文 参考訳(メタデータ) (2023-07-30T16:08:45Z) - A Brief Review of Explainable Artificial Intelligence in Healthcare [7.844015105790313]
XAIは、AIアプリケーションを構築するための技術と方法を指す。
モデル説明可能性と解釈可能性は、医療実践におけるAIモデルのデプロイを成功させる上で不可欠である。
論文 参考訳(メタデータ) (2023-04-04T05:41:57Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - The Medkit-Learn(ing) Environment: Medical Decision Modelling through
Simulation [81.72197368690031]
医用シーケンシャルな意思決定に特化して設計された新しいベンチマークスイートを提案する。
Medkit-Learn(ing) Environmentは、高忠実度合成医療データに簡単かつ簡単にアクセスできるPythonパッケージである。
論文 参考訳(メタデータ) (2021-06-08T10:38:09Z) - Automated Lay Language Summarization of Biomedical Scientific Reviews [16.01452242066412]
健康リテラシーは適切な健康判断と治療結果の確保において重要な要素として浮上している。
医療用語とこのドメインの専門言語の複雑な構造は、健康情報を解釈するのが特に困難にします。
本稿では,生物医学的レビューの要約を自動生成する新しい課題について紹介する。
論文 参考訳(メタデータ) (2020-12-23T10:01:18Z) - Achievements and Challenges in Explaining Deep Learning based
Computer-Aided Diagnosis Systems [4.9449660544238085]
我々は、既知の疾患基準の検証のための説明可能なAIの開発における初期の成果について論じる。
我々は、臨床意思決定支援ツールとしてのAIの実践的応用の道に立つ、残る課題をいくつか強調する。
論文 参考訳(メタデータ) (2020-11-26T08:08:19Z) - Interpretable Multi-Step Reasoning with Knowledge Extraction on Complex
Healthcare Question Answering [89.76059961309453]
HeadQAデータセットには、公衆医療専門試験で認可された複数の選択質問が含まれている。
これらの質問は、現在のQAシステムにとって最も難しいものです。
知識抽出フレームワーク(MurKe)を用いた多段階推論を提案する。
市販の事前訓練モデルを完全に活用しようと努力しています。
論文 参考訳(メタデータ) (2020-08-06T02:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。