論文の概要: The Three Ghosts of Medical AI: Can the Black-Box Present Deliver?
- arxiv url: http://arxiv.org/abs/2012.06000v1
- Date: Thu, 10 Dec 2020 22:22:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 06:26:18.151466
- Title: The Three Ghosts of Medical AI: Can the Black-Box Present Deliver?
- Title(参考訳): 医療AIの3つのゴースト:ブラックボックスは実現可能か?
- Authors: Thomas P. Quinn, Stephan Jacobs, Manisha Senadeera, Vuong Le, Simon
Coghlan
- Abstract要約: 私たちは現代機械学習のクルークに注目している:強力だが本質的に不透明なモデルに依存しています。
これらのモデルは、臨床医と患者エンドユーザーが必要とする透明性の必要性を満たしていません。
不透明モデルは品質保証が欠如し、信頼が得られず、医師と患者との対話が制限されている。
- 参考スコア(独自算出の注目度): 5.86728272386525
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Our title alludes to the three Christmas ghosts encountered by Ebenezer
Scrooge in \textit{A Christmas Carol}, who guide Ebenezer through the past,
present, and future of Christmas holiday events. Similarly, our article will
take readers through a journey of the past, present, and future of medical AI.
In doing so, we focus on the crux of modern machine learning: the reliance on
powerful but intrinsically opaque models. When applied to the healthcare
domain, these models fail to meet the needs for transparency that their
clinician and patient end-users require. We review the implications of this
failure, and argue that opaque models (1) lack quality assurance, (2) fail to
elicit trust, and (3) restrict physician-patient dialogue. We then discuss how
upholding transparency in all aspects of model design and model validation can
help ensure the reliability of medical AI.
- Abstract(参考訳): 私たちのタイトルは、Ebenezer Scrooge氏がthe past, present, and future of Christmas holiday eventsをガイドした『textit{A Christmas Carol}』で遭遇した3つのクリスマスゴーストに言及しています。
同様に、私たちの記事は、医療AIの過去、現在、未来を読者に伝える。
そのために私たちは、現代の機械学習の要点である、強力だが本質的に不透明なモデルに依存しています。
医療領域に適用された場合、これらのモデルは、臨床医や患者エンドユーザが必要とする透明性の必要性を満たさない。
この失敗の意義を概観し,(1)不透明モデルには品質保証が欠如していること,(2)信頼が得られないこと,(3)医師と患者との対話が制限されていることを論じる。
次に、モデル設計とモデル検証のあらゆる面における透明性の維持が、医療AIの信頼性の確保にどのように役立つかについて議論する。
関連論文リスト
- A Concept-based Interpretable Model for the Diagnosis of Choroid
Neoplasias using Multimodal Data [28.632437578685842]
我々は成人で最も多い眼がんである脈絡膜新生症(5.1%)に焦点を当てた。
本研究は,3種類の脈絡膜腫瘍を識別する概念に基づく解釈可能なモデルを提案する。
注目すべきは、このモデルがブラックボックスモデルに匹敵するF1スコアの0.91を達成する一方で、ジュニア医師の診断精度を42%向上させることである。
論文 参考訳(メタデータ) (2024-03-08T07:15:53Z) - Revamping AI Models in Dermatology: Overcoming Critical Challenges for
Enhanced Skin Lesion Diagnosis [8.430482797862926]
我々は、分散-textbfClinical TriageモデルのオールインワンのtextbfHierarchical-textbfOutを示す。
臨床画像では,階層的予測,アウト・オブ・ディストリビューション画像の警告,皮膚内視鏡の推奨の3つの出力を生成する。
我々の汎用モデルは、病変診断のための貴重な意思決定支援を提供し、医療AI応用の有望な先例を定めている。
論文 参考訳(メタデータ) (2023-11-02T06:08:49Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Creating Trustworthy LLMs: Dealing with Hallucinations in Healthcare AI [3.1000291317724997]
我々は、信頼できる、信頼できる、偏見のないモデルを作成する上で重要な要素を、医療導入に必要な条件として記述する。
具体的には、医療の文脈における幻覚の定量化、検証、緩和に焦点を当てる。
論文 参考訳(メタデータ) (2023-09-26T20:52:46Z) - XrayGPT: Chest Radiographs Summarization using Medical Vision-Language
Models [60.437091462613544]
我々は,会話型医療ビジョン言語モデルであるXrayGPTを紹介する。
胸部X線写真に関するオープンエンドの質問を分析し、答えることができる。
自由テキストラジオグラフィーレポートから217kの対話的かつ高品質な要約を生成する。
論文 参考訳(メタデータ) (2023-06-13T17:59:59Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Explainable AI meets Healthcare: A Study on Heart Disease Dataset [0.0]
目的は、様々な技術を用いて説明可能なAIシステムの理解性と解釈可能性について実践者に啓蒙することである。
本論文は、心臓病データセットに基づく例を収録し、信頼性を高めるために説明可能性技術をどのように好むべきかを解明する。
論文 参考訳(メタデータ) (2020-11-06T05:18:43Z) - Convolutional-LSTM for Multi-Image to Single Output Medical Prediction [55.41644538483948]
発展途上国の一般的なシナリオは、複数の理由からボリュームメタデータが失われることである。
ヒトの診断過程を模倣したマルチイメージから単一診断モデルを得ることが可能である。
論文 参考訳(メタデータ) (2020-10-20T04:30:09Z) - Concept Bottleneck Models [79.91795150047804]
現在の最先端モデルは、通常「骨の支柱の存在」のような概念の操作をサポートしない。
トレーニング時に提供される概念を最初に予測し、ラベルを予測するためにこれらの概念を使用するという古典的な考え方を再考する。
X線グレーディングと鳥の識別では、概念ボトルネックモデルが標準のエンドツーエンドモデルと競合する精度を達成する。
論文 参考訳(メタデータ) (2020-07-09T07:47:28Z) - Synthetic Observational Health Data with GANs: from slow adoption to a
boom in medical research and ultimately digital twins? [0.16244541005112745]
患者に関するデータとそれを保護するための規制が、非常にプライベートな性質を持っているため、獣の潜在能力は明らかにされていない。
Generative Adversarial Networks (GAN) は、現実的な合成データを生成する生成モデルを学ぶための画期的な方法として最近登場した。
GANは、データ不足、クラス不均衡、まれな疾患、プライバシの保護など、医療における一般的な問題に関連する機能を備えている。
論文 参考訳(メタデータ) (2020-05-27T17:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。