論文の概要: Mapping the Ictal-Interictal-Injury Continuum Using Interpretable
Machine Learning
- arxiv url: http://arxiv.org/abs/2211.05207v1
- Date: Wed, 9 Nov 2022 21:33:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 14:12:04.735170
- Title: Mapping the Ictal-Interictal-Injury Continuum Using Interpretable
Machine Learning
- Title(参考訳): 解釈型機械学習を用いたIctal-Interictal-Injury Continuumのマッピング
- Authors: Alina Jade Barnett, Zhicheng Guo, Jin Jing, Wendong Ge, Cynthia Rudin,
M. Brandon Westover
- Abstract要約: 解釈可能な機械学習モデルは、各予測の忠実な説明を提供し、ブラックボックスよりも高いパフォーマンスを維持することができる。
このシステムは、臨床現場で標的となる介入と訓練を可能にする。
- 参考スコア(独自算出の注目度): 14.902075911612458
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: IMPORTANCE: An interpretable machine learning model can provide faithful
explanations of each prediction and yet maintain higher performance than its
black box counterpart.
OBJECTIVE: To design an interpretable machine learning model which accurately
predicts EEG protopatterns while providing an explanation of its predictions
with assistance of a specialized GUI. To map the cEEG latent features to a 2D
space in order to visualize the ictal-interictal-injury continuum and gain
insight into its high-dimensional structure.
DESIGN, SETTING, AND PARTICIPANTS: 50,697 50-second cEEG samples from 2,711
ICU patients collected between July 2006 and March 2020 at Massachusetts
General Hospital. Samples were labeled as one of 6 EEG activities by domain
experts, with 124 different experts providing annotations.
MAIN OUTCOMES AND MEASURES: Our neural network is interpretable because it
uses case-based reasoning: it compares a new EEG reading to a set of learned
prototypical EEG samples from the training dataset. Interpretability was
measured with task-specific neighborhood agreement statistics. Discriminatory
performance was evaluated with AUROC and AUPRC.
RESULTS: The model achieves AUROCs of 0.87, 0.93, 0.96, 0.92, 0.93, 0.80 for
classes Seizure, LPD, GPD, LRDA, GRDA, Other respectively. This performance is
statistically significantly higher than that of the corresponding
uninterpretable (black box) model with p<0.0001. Videos of the
ictal-interictal-injury continuum are provided.
CONCLUSION AND RELEVANCE: Our interpretable model and GUI can act as a
reference for practitioners who work with cEEG patterns. We can now better
understand the relationships between different types of cEEG patterns. In the
future, this system may allow for targeted intervention and training in
clinical settings. It could also be used for re-confirming or providing
additional information for diagnostics.
- Abstract(参考訳): IMPORTANCE: 解釈可能な機械学習モデルは、各予測の忠実な説明を提供することができるが、ブラックボックスよりも高いパフォーマンスを維持することができる。
OBJECTIVE: 脳波のプロトパターンを正確に予測する解釈可能な機械学習モデルを設計し、その予測を専門のGUIの助けを借りて説明する。
cEEG潜伏特徴を2次元空間にマッピングし、眼内損傷連続体を可視化し、その高次元構造についての洞察を得る。
2006年7月から2020年3月までにマサチューセッツ州総合病院で採取された2,711 ICU患者の50,697個の50秒CEEGサンプルについて検討した。
サンプルはドメインの専門家によって6つのEEGアクティビティの1つとしてラベル付けされた。
主な結果と測定値: 私たちのニューラルネットワークは、ケースベースの推論を使用するため、解釈可能である。
タスク固有の近傍合意統計を用いて解釈可能性を測定した。
AUROCおよびAUPRCを用いて識別性能を評価した。
RESULTS: このモデルは,Sezure, LPD, GPD, LRDA, GRDAの各クラスに対して0.87, 0.93, 0.96, 0.92, 0.93, 0.80のAUROCを達成する。
この性能は、p<0.0001の対応する解釈不能(ブラックボックス)モデルよりも統計的に有意に高い。
ictal-interictal-injury continuumのビデオを提供する。
ConClusion and Relevance: 私たちの解釈可能なモデルとGUIは、cEEGパターンを扱う実践者の参照として機能します。
さまざまなタイプのcEEGパターンの関係をよりよく理解することができます。
将来的には,臨床現場での介入やトレーニングも可能となる可能性がある。
診断のための追加情報の再確認や提供にも使用できる。
関連論文リスト
- Analyzing the Effect of $k$-Space Features in MRI Classification Models [0.0]
医用イメージングに適した説明可能なAI手法を開発した。
我々は、画像領域と周波数領域の両方にわたるMRIスキャンを分析する畳み込みニューラルネットワーク(CNN)を採用している。
このアプローチは、初期のトレーニング効率を高めるだけでなく、追加機能がモデル予測にどのように影響するかの理解を深めます。
論文 参考訳(メタデータ) (2024-09-20T15:43:26Z) - The Limits of Perception: Analyzing Inconsistencies in Saliency Maps in XAI [0.0]
説明可能な人工知能(XAI)は、AIの意思決定プロセスの解明に不可欠である。
ブラックボックス」として機能し、その理由が曖昧でアクセスできないため、誤診のリスクが高まる。
この透明性へのシフトは、単に有益であるだけでなく、医療におけるAI統合の責任を負うための重要なステップでもある。
論文 参考訳(メタデータ) (2024-03-23T02:15:23Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Patched Diffusion Models for Unsupervised Anomaly Detection in Brain MRI [55.78588835407174]
本稿では,正常脳解剖のパッチベース推定法として拡散モデルの生成タスクを再構築する手法を提案する。
腫瘍と多発性硬化症について検討し,既存のベースラインと比較して25.1%の改善がみられた。
論文 参考訳(メタデータ) (2023-03-07T09:40:22Z) - Collective Intelligent Strategy for Improved Segmentation of COVID-19
from CT [0.2062593640149623]
本研究では, 深層学習と画像を用いた非侵襲的非侵襲ツールを提案する。
Ensembling Attention-based Multi-scaled Convolution Network (EAMC) は感染領域のアウトラインにおいて高い感度と精度を示す。
その臨床的意義は、遠隔地で専門的な医療を欠く患者に低コストな意思決定を提供することにおいて、前例のない範囲にある。
論文 参考訳(メタデータ) (2022-12-23T11:24:29Z) - A Trustworthy Framework for Medical Image Analysis with Deep Learning [71.48204494889505]
TRUDLMIAは医用画像解析のための信頼できるディープラーニングフレームワークである。
新型コロナウイルス(COVID-19)などの公衆衛生危機への対応に深層学習の活用を推進していくため、研究者や臨床医を支援することが期待されている。
論文 参考訳(メタデータ) (2022-12-06T05:30:22Z) - fMRI from EEG is only Deep Learning away: the use of interpretable DL to
unravel EEG-fMRI relationships [68.8204255655161]
多チャンネル脳波データからいくつかの皮質下領域の活性を回復するための解釈可能な領域基底解を提案する。
我々は,皮質下核の血行動態信号の頭皮脳波予測の空間的・時間的パターンを復元する。
論文 参考訳(メタデータ) (2022-10-23T15:11:37Z) - AutoPrognosis 2.0: Democratizing Diagnostic and Prognostic Modeling in
Healthcare with Automated Machine Learning [72.2614468437919]
本稿では,診断・予後モデルを開発するための機械学習フレームワークAutoPrognosis 2.0を提案する。
我々は,英国バイオバンクを用いた糖尿病の予後リスクスコアを構築するための図解的アプリケーションを提供する。
我々のリスクスコアはWebベースの意思決定支援ツールとして実装されており、世界中の患者や臨床医がアクセスできる。
論文 参考訳(メタデータ) (2022-10-21T16:31:46Z) - COVID-Net Biochem: An Explainability-driven Framework to Building
Machine Learning Models for Predicting Survival and Kidney Injury of COVID-19
Patients from Clinical and Biochemistry Data [66.43957431843324]
我々は、機械学習モデルを構築するための汎用的で説明可能なフレームワークであるCOVID-Net Biochemを紹介する。
この枠組みを用いて、新型コロナウイルス患者の生存率と、入院中に急性腎不全を発症する可能性を予測する。
論文 参考訳(メタデータ) (2022-04-24T07:38:37Z) - A Novel TSK Fuzzy System Incorporating Multi-view Collaborative Transfer
Learning for Personalized Epileptic EEG Detection [20.11589208667256]
マルチビュー協調移動学習を統合したTSKファジィシステムに基づくてんかん検出アルゴリズムを提案する。
提案手法はてんかん性脳波を効果的に検出する能力を有する。
論文 参考訳(メタデータ) (2021-11-11T12:15:55Z) - Demystifying Deep Learning Models for Retinal OCT Disease Classification
using Explainable AI [0.6117371161379209]
様々な深層学習技術の採用は、非常に一般的かつ効果的であり、網膜光コヒーレンス・トモグラフィー分野に実装する上でも同様に真実である。
これらの技術はブラックボックスの特徴を持ち、医療従事者がそれらの成果を完全に信頼できないようにする。
本稿では,この研究に説明可能なAIを導入したLimeの使用とともに,比較的小型で簡易な自己開発CNNモデルを提案する。
論文 参考訳(メタデータ) (2021-11-06T13:54:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。