論文の概要: Interpretable Machine Learning System to EEG Patterns on the
Ictal-Interictal-Injury Continuum
- arxiv url: http://arxiv.org/abs/2211.05207v4
- Date: Tue, 11 Apr 2023 18:50:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 18:38:25.871593
- Title: Interpretable Machine Learning System to EEG Patterns on the
Ictal-Interictal-Injury Continuum
- Title(参考訳): ictal-interictal-injury continuumにおける脳波パターンの解釈可能な機械学習システム
- Authors: Alina Jade Barnett, Zhicheng Guo, Jin Jing, Wendong Ge, Cynthia Rudin,
M. Brandon Westover
- Abstract要約: 集中治療室(ICUs)では、重度の脳損傷を防ぐために、重度疾患のある患者は脳波(EEGs)で監視される。
ブラックボックスのディープラーニングモデルは信頼できない、トラブルシューティングが難しい、現実世界のアプリケーションでは説明責任が欠如している。
本稿では,有害脳波パターンの存在を予測する新しい解釈可能な深層学習モデルを提案する。
- 参考スコア(独自算出の注目度): 14.902075911612458
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In intensive care units (ICUs), critically ill patients are monitored with
electroencephalograms (EEGs) to prevent serious brain injury. The number of
patients who can be monitored is constrained by the availability of trained
physicians to read EEGs, and EEG interpretation can be subjective and prone to
inter-observer variability. Automated deep learning systems for EEG could
reduce human bias and accelerate the diagnostic process. However, black box
deep learning models are untrustworthy, difficult to troubleshoot, and lack
accountability in real-world applications, leading to a lack of trust and
adoption by clinicians. To address these challenges, we propose a novel
interpretable deep learning model that not only predicts the presence of
harmful brainwave patterns but also provides high-quality case-based
explanations of its decisions. Our model performs better than the corresponding
black box model, despite being constrained to be interpretable. The learned 2D
embedded space provides the first global overview of the structure of
ictal-interictal-injury continuum brainwave patterns. The ability to understand
how our model arrived at its decisions will not only help clinicians to
diagnose and treat harmful brain activities more accurately but also increase
their trust and adoption of machine learning models in clinical practice; this
could be an integral component of the ICU neurologists' standard workflow.
- Abstract(参考訳): 集中治療室(ICUs)では、重度の脳損傷を防ぐために、重度の重症患者を脳波(EEGs)でモニターする。
モニターできる患者の数は、訓練を受けた医師が脳波を読むことができることによって制限され、脳波の解釈は主観的であり、サーバ間変動が起こりやすい。
脳波の自動ディープラーニングシステムは、人間のバイアスを減らし、診断プロセスを加速する。
しかし、ブラックボックスディープラーニングモデルは信頼性が低く、トラブルシュートが難しく、現実世界のアプリケーションでは説明責任が欠如しており、臨床医の信頼と採用が欠如している。
これらの課題に対処するため,我々は,有害な脳波パターンの存在を予測できるだけでなく,その決定に関する高品質なケースベース説明を提供する新しい解釈可能な深層学習モデルを提案する。
我々のモデルは解釈可能であることを制約されているにもかかわらず、対応するブラックボックスモデルよりも優れている。
学習された2次元埋め込み空間は、ictal-interictal-injury continuum brainwaveパターンの構造に関する最初のグローバルな概観を提供する。
私たちのモデルがどのように決定に至ったかを理解する能力は、臨床医が有害な脳活動の診断と治療をより正確に行うのに役立つだけでなく、臨床における機械学習モデルの信頼と採用を高めるのに役立つでしょう。
関連論文リスト
- Analyzing the Effect of $k$-Space Features in MRI Classification Models [0.0]
医用イメージングに適した説明可能なAI手法を開発した。
我々は、画像領域と周波数領域の両方にわたるMRIスキャンを分析する畳み込みニューラルネットワーク(CNN)を採用している。
このアプローチは、初期のトレーニング効率を高めるだけでなく、追加機能がモデル予測にどのように影響するかの理解を深めます。
論文 参考訳(メタデータ) (2024-09-20T15:43:26Z) - The Limits of Perception: Analyzing Inconsistencies in Saliency Maps in XAI [0.0]
説明可能な人工知能(XAI)は、AIの意思決定プロセスの解明に不可欠である。
ブラックボックス」として機能し、その理由が曖昧でアクセスできないため、誤診のリスクが高まる。
この透明性へのシフトは、単に有益であるだけでなく、医療におけるAI統合の責任を負うための重要なステップでもある。
論文 参考訳(メタデータ) (2024-03-23T02:15:23Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Patched Diffusion Models for Unsupervised Anomaly Detection in Brain MRI [55.78588835407174]
本稿では,正常脳解剖のパッチベース推定法として拡散モデルの生成タスクを再構築する手法を提案する。
腫瘍と多発性硬化症について検討し,既存のベースラインと比較して25.1%の改善がみられた。
論文 参考訳(メタデータ) (2023-03-07T09:40:22Z) - Collective Intelligent Strategy for Improved Segmentation of COVID-19
from CT [0.2062593640149623]
本研究では, 深層学習と画像を用いた非侵襲的非侵襲ツールを提案する。
Ensembling Attention-based Multi-scaled Convolution Network (EAMC) は感染領域のアウトラインにおいて高い感度と精度を示す。
その臨床的意義は、遠隔地で専門的な医療を欠く患者に低コストな意思決定を提供することにおいて、前例のない範囲にある。
論文 参考訳(メタデータ) (2022-12-23T11:24:29Z) - A Trustworthy Framework for Medical Image Analysis with Deep Learning [71.48204494889505]
TRUDLMIAは医用画像解析のための信頼できるディープラーニングフレームワークである。
新型コロナウイルス(COVID-19)などの公衆衛生危機への対応に深層学習の活用を推進していくため、研究者や臨床医を支援することが期待されている。
論文 参考訳(メタデータ) (2022-12-06T05:30:22Z) - fMRI from EEG is only Deep Learning away: the use of interpretable DL to
unravel EEG-fMRI relationships [68.8204255655161]
多チャンネル脳波データからいくつかの皮質下領域の活性を回復するための解釈可能な領域基底解を提案する。
我々は,皮質下核の血行動態信号の頭皮脳波予測の空間的・時間的パターンを復元する。
論文 参考訳(メタデータ) (2022-10-23T15:11:37Z) - AutoPrognosis 2.0: Democratizing Diagnostic and Prognostic Modeling in
Healthcare with Automated Machine Learning [72.2614468437919]
本稿では,診断・予後モデルを開発するための機械学習フレームワークAutoPrognosis 2.0を提案する。
我々は,英国バイオバンクを用いた糖尿病の予後リスクスコアを構築するための図解的アプリケーションを提供する。
我々のリスクスコアはWebベースの意思決定支援ツールとして実装されており、世界中の患者や臨床医がアクセスできる。
論文 参考訳(メタデータ) (2022-10-21T16:31:46Z) - COVID-Net Biochem: An Explainability-driven Framework to Building
Machine Learning Models for Predicting Survival and Kidney Injury of COVID-19
Patients from Clinical and Biochemistry Data [66.43957431843324]
我々は、機械学習モデルを構築するための汎用的で説明可能なフレームワークであるCOVID-Net Biochemを紹介する。
この枠組みを用いて、新型コロナウイルス患者の生存率と、入院中に急性腎不全を発症する可能性を予測する。
論文 参考訳(メタデータ) (2022-04-24T07:38:37Z) - A Novel TSK Fuzzy System Incorporating Multi-view Collaborative Transfer
Learning for Personalized Epileptic EEG Detection [20.11589208667256]
マルチビュー協調移動学習を統合したTSKファジィシステムに基づくてんかん検出アルゴリズムを提案する。
提案手法はてんかん性脳波を効果的に検出する能力を有する。
論文 参考訳(メタデータ) (2021-11-11T12:15:55Z) - Demystifying Deep Learning Models for Retinal OCT Disease Classification
using Explainable AI [0.6117371161379209]
様々な深層学習技術の採用は、非常に一般的かつ効果的であり、網膜光コヒーレンス・トモグラフィー分野に実装する上でも同様に真実である。
これらの技術はブラックボックスの特徴を持ち、医療従事者がそれらの成果を完全に信頼できないようにする。
本稿では,この研究に説明可能なAIを導入したLimeの使用とともに,比較的小型で簡易な自己開発CNNモデルを提案する。
論文 参考訳(メタデータ) (2021-11-06T13:54:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。