論文の概要: Designing Interpretable ML System to Enhance Trustworthy AI in
Healthcare: A Systematic Review of the Last Decade to A Proposed Robust
Framework
- arxiv url: http://arxiv.org/abs/2311.11055v1
- Date: Sat, 18 Nov 2023 12:29:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 12:43:00.280107
- Title: Designing Interpretable ML System to Enhance Trustworthy AI in
Healthcare: A Systematic Review of the Last Decade to A Proposed Robust
Framework
- Title(参考訳): 医療における信頼できるAIを実現するための解釈可能なMLシステムの設計:ロバストフレームワークの提案までの最後の10年を体系的なレビュー
- Authors: Elham Nasarian, Roohallah Alizadehsani, U. Rajendra Acharyac, d
Kwok-Leung Tsui
- Abstract要約: 本稿では、医療における解釈可能なML(IML)と説明可能なAI(XAI)のプロセスと課題についてレビューする。
本研究は,医療における堅牢な解釈可能性の重要性を実験的に確立することを目的とする。
- 参考スコア(独自算出の注目度): 0.49157446832511503
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI-based medical technologies, including wearables, telemedicine, LLMs, and
digital care twins, significantly impact healthcare. Ensuring AI results are
accurate and interpretable is crucial, especially for clinicians. This paper
reviews processes and challenges of interpretable ML (IML) and explainable AI
(XAI) in healthcare. Objectives include reviewing XAI processes, methods,
applications, and challenges, with a focus on quality control. The IML process
is classified into data pre-processing interpretability, interpretable
modeling, and post-processing interpretability. The paper aims to establish the
importance of robust interpretability in healthcare through experimental
results, providing insights for creating communicable clinician-AI tools.
Research questions, eligibility criteria, and goals were identified following
PRISMA and PICO methods. PubMed, Scopus, and Web of Science were systematically
searched using specific strings. The survey introduces a step-by-step roadmap
for implementing XAI in clinical applications, addressing existing gaps and
acknowledging XAI model limitations.
- Abstract(参考訳): ウェアラブル、遠隔医療、LLM、デジタルケア双生児を含むAIベースの医療技術は、医療に大きな影響を与えている。
AI結果の正確性を保証することは、特に臨床医にとって不可欠である。
本稿では、医療における解釈可能なML(IML)と説明可能なAI(XAI)のプロセスと課題についてレビューする。
目的には、品質管理に焦点を当てたXAIプロセス、メソッド、アプリケーション、課題のレビューが含まれる。
IMLプロセスは、データ前処理の解釈可能性、解釈可能なモデリング、後処理の解釈可能性に分類される。
本研究の目的は,医療における堅牢な解釈可能性の重要性を明らかにすることであり,コミュニケーション可能なクリニックAIツールを作成するための洞察を提供することである。
PRISMA法とPICO法に準じて研究課題,適性基準,目標を同定した。
PubMed, Scopus, Web of Scienceは特定の文字列を使って体系的に検索された。
この調査では、XAIを臨床応用に適用するためのステップバイステップのロードマップを導入し、既存のギャップに対処し、XAIモデルの制限を認める。
関連論文リスト
- An Explainable AI Framework for Artificial Intelligence of Medical
Things [2.7774194651211217]
我々はカスタムXAIフレームワークを活用し、LIME(Local Interpretable Model-Agnostic Explanations)、SHAP(SHapley Additive ExPlanations)、Grad-Cam(Grad-weighted Class Activation Mapping)といったテクニックを取り入れた。
提案手法は, 戦略的医療手法の有効性を高め, 信頼度を高め, 医療応用の理解を促進することを目的としている。
我々はXAIフレームワークを脳腫瘍検出に応用し,正確かつ透明な診断方法を示した。
論文 参考訳(メタデータ) (2024-03-07T01:08:41Z) - AI Hospital: Interactive Evaluation and Collaboration of LLMs as Intern
Doctors for Clinical Diagnosis [72.50974375416239]
リアルタイムのインタラクティブな診断環境を構築するために設計されたフレームワークであるAI Hospitalを紹介する。
様々な大規模言語モデル(LLM)は、対話的診断のためのインターン医師として機能する。
我々は,医療部長の監督の下で,反復的な議論と紛争解決プロセスを含む協調的なメカニズムを導入する。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - Interpretable Medical Imagery Diagnosis with Self-Attentive
Transformers: A Review of Explainable AI for Health Care [2.7195102129095003]
ビジョントランスフォーマー(ViT)は、自己注意モジュールの恩恵を受け、最先端のコンピュータビジョンモデルとして登場した。
ディープラーニングモデルは複雑で、しばしば"ブラックボックス"として扱われる。
本稿では、最近のViTの進歩と、ViTの意思決定プロセスを理解するための解釈的アプローチを要約する。
論文 参考訳(メタデータ) (2023-09-01T05:01:52Z) - An objective validation of polyp and instrument segmentation methods in
colonoscopy through Medico 2020 polyp segmentation and MedAI 2021
transparency challenges [58.402720481042365]
メディコオートマチックポリープセグメンテーション(Medico 2020)と「メディコ:医療画像の透明性(MedAI 2021)」コンペティション。
本報告では, それぞれのコントリビューションを包括的に分析し, ベストパフォーマンスメソッドの強さを強調し, クリニックへの臨床翻訳の可能性について考察する。
論文 参考訳(メタデータ) (2023-07-30T16:08:45Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - A Brief Review of Explainable Artificial Intelligence in Healthcare [7.844015105790313]
XAIは、AIアプリケーションを構築するための技術と方法を指す。
モデル説明可能性と解釈可能性は、医療実践におけるAIモデルのデプロイを成功させる上で不可欠である。
論文 参考訳(メタデータ) (2023-04-04T05:41:57Z) - Explainable AI for clinical and remote health applications: a survey on
tabular and time series data [3.655021726150368]
XAIは、特に医療において、さまざまな研究領域やデータタイプに同じ関心を集めていない点に注意が必要だ。
本稿は,過去5年間の文献を概観し,生成した説明のタイプと,それらの関連性や品質を評価するための取り組みについて述べる。
論文 参考訳(メタデータ) (2022-09-14T10:01:29Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - VBridge: Connecting the Dots Between Features, Explanations, and Data
for Healthcare Models [85.4333256782337]
VBridgeは、臨床医の意思決定ワークフローに機械学習の説明をシームレスに組み込むビジュアル分析ツールである。
我々は,臨床医がMLの特徴に慣れていないこと,文脈情報の欠如,コホートレベルの証拠の必要性など,3つの重要な課題を特定した。
症例スタディと専門医4名のインタビューを通じて, VBridgeの有効性を実証した。
論文 参考訳(メタデータ) (2021-08-04T17:34:13Z) - Achievements and Challenges in Explaining Deep Learning based
Computer-Aided Diagnosis Systems [4.9449660544238085]
我々は、既知の疾患基準の検証のための説明可能なAIの開発における初期の成果について論じる。
我々は、臨床意思決定支援ツールとしてのAIの実践的応用の道に立つ、残る課題をいくつか強調する。
論文 参考訳(メタデータ) (2020-11-26T08:08:19Z) - Machine Learning in Nano-Scale Biomedical Engineering [77.75587007080894]
ナノスケールバイオメディカルエンジニアリングにおける機械学習の利用に関する既存の研究について概説する。
ML問題として定式化できる主な課題は、3つの主要なカテゴリに分類される。
提示された方法論のそれぞれについて、その原則、応用、制限に特に重点を置いている。
論文 参考訳(メタデータ) (2020-08-05T15:45:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。