論文の概要: The Three Ghosts of Medical AI: Can the Black-Box Present Deliver?
- arxiv url: http://arxiv.org/abs/2012.06000v1
- Date: Thu, 10 Dec 2020 22:22:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 06:26:18.151466
- Title: The Three Ghosts of Medical AI: Can the Black-Box Present Deliver?
- Title(参考訳): 医療AIの3つのゴースト:ブラックボックスは実現可能か?
- Authors: Thomas P. Quinn, Stephan Jacobs, Manisha Senadeera, Vuong Le, Simon
Coghlan
- Abstract要約: 私たちは現代機械学習のクルークに注目している:強力だが本質的に不透明なモデルに依存しています。
これらのモデルは、臨床医と患者エンドユーザーが必要とする透明性の必要性を満たしていません。
不透明モデルは品質保証が欠如し、信頼が得られず、医師と患者との対話が制限されている。
- 参考スコア(独自算出の注目度): 5.86728272386525
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Our title alludes to the three Christmas ghosts encountered by Ebenezer
Scrooge in \textit{A Christmas Carol}, who guide Ebenezer through the past,
present, and future of Christmas holiday events. Similarly, our article will
take readers through a journey of the past, present, and future of medical AI.
In doing so, we focus on the crux of modern machine learning: the reliance on
powerful but intrinsically opaque models. When applied to the healthcare
domain, these models fail to meet the needs for transparency that their
clinician and patient end-users require. We review the implications of this
failure, and argue that opaque models (1) lack quality assurance, (2) fail to
elicit trust, and (3) restrict physician-patient dialogue. We then discuss how
upholding transparency in all aspects of model design and model validation can
help ensure the reliability of medical AI.
- Abstract(参考訳): 私たちのタイトルは、Ebenezer Scrooge氏がthe past, present, and future of Christmas holiday eventsをガイドした『textit{A Christmas Carol}』で遭遇した3つのクリスマスゴーストに言及しています。
同様に、私たちの記事は、医療AIの過去、現在、未来を読者に伝える。
そのために私たちは、現代の機械学習の要点である、強力だが本質的に不透明なモデルに依存しています。
医療領域に適用された場合、これらのモデルは、臨床医や患者エンドユーザが必要とする透明性の必要性を満たさない。
この失敗の意義を概観し,(1)不透明モデルには品質保証が欠如していること,(2)信頼が得られないこと,(3)医師と患者との対話が制限されていることを論じる。
次に、モデル設計とモデル検証のあらゆる面における透明性の維持が、医療AIの信頼性の確保にどのように役立つかについて議論する。
関連論文リスト
- DiffExplainer: Unveiling Black Box Models Via Counterfactual Generation [11.201840101870808]
ブラックボックスモデルに接続した場合に異なる決定を誘導する反ファクト画像を生成することができるエージェントモデルを提案する。
このエージェントモデルを用いることで、ブラックモデルの最終予測に影響を与える影響のあるイメージパターンを明らかにすることができる。
医療予後タスクの厳格な領域におけるアプローチの検証を行った。
論文 参考訳(メタデータ) (2024-06-21T14:27:02Z) - CARES: A Comprehensive Benchmark of Trustworthiness in Medical Vision Language Models [92.04812189642418]
我々はCARESを紹介し,医療領域全体での医療LVLMの信頼性を評価することを目的とする。
我々は,Med-LVLMの信頼性を,信頼性,公正性,安全性,プライバシ,堅牢性,5次元にわたって評価する。
論文 参考訳(メタデータ) (2024-06-10T04:07:09Z) - Would You Trust an AI Doctor? Building Reliable Medical Predictions with Kernel Dropout Uncertainty [14.672477787408887]
小型医療データセットの信頼性を高めるため,カーネルモデルを用いたベイジアンモンテカルロ・ドロップアウトモデルを導入する。
限られたデータであっても、信頼性が大幅に向上し、AI駆動型医療予測の信頼構築に向けた有望なステップを提供します。
論文 参考訳(メタデータ) (2024-04-16T11:43:26Z) - A Concept-based Interpretable Model for the Diagnosis of Choroid
Neoplasias using Multimodal Data [28.632437578685842]
我々は成人で最も多い眼がんである脈絡膜新生症(5.1%)に焦点を当てた。
本研究は,3種類の脈絡膜腫瘍を識別する概念に基づく解釈可能なモデルを提案する。
注目すべきは、このモデルがブラックボックスモデルに匹敵するF1スコアの0.91を達成する一方で、ジュニア医師の診断精度を42%向上させることである。
論文 参考訳(メタデータ) (2024-03-08T07:15:53Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Creating Trustworthy LLMs: Dealing with Hallucinations in Healthcare AI [3.1000291317724997]
我々は、信頼できる、信頼できる、偏見のないモデルを作成する上で重要な要素を、医療導入に必要な条件として記述する。
具体的には、医療の文脈における幻覚の定量化、検証、緩和に焦点を当てる。
論文 参考訳(メタデータ) (2023-09-26T20:52:46Z) - XrayGPT: Chest Radiographs Summarization using Medical Vision-Language
Models [60.437091462613544]
我々は,会話型医療ビジョン言語モデルであるXrayGPTを紹介する。
胸部X線写真に関するオープンエンドの質問を分析し、答えることができる。
自由テキストラジオグラフィーレポートから217kの対話的かつ高品質な要約を生成する。
論文 参考訳(メタデータ) (2023-06-13T17:59:59Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Explainable AI meets Healthcare: A Study on Heart Disease Dataset [0.0]
目的は、様々な技術を用いて説明可能なAIシステムの理解性と解釈可能性について実践者に啓蒙することである。
本論文は、心臓病データセットに基づく例を収録し、信頼性を高めるために説明可能性技術をどのように好むべきかを解明する。
論文 参考訳(メタデータ) (2020-11-06T05:18:43Z) - Convolutional-LSTM for Multi-Image to Single Output Medical Prediction [55.41644538483948]
発展途上国の一般的なシナリオは、複数の理由からボリュームメタデータが失われることである。
ヒトの診断過程を模倣したマルチイメージから単一診断モデルを得ることが可能である。
論文 参考訳(メタデータ) (2020-10-20T04:30:09Z) - Concept Bottleneck Models [79.91795150047804]
現在の最先端モデルは、通常「骨の支柱の存在」のような概念の操作をサポートしない。
トレーニング時に提供される概念を最初に予測し、ラベルを予測するためにこれらの概念を使用するという古典的な考え方を再考する。
X線グレーディングと鳥の識別では、概念ボトルネックモデルが標準のエンドツーエンドモデルと競合する精度を達成する。
論文 参考訳(メタデータ) (2020-07-09T07:47:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。