論文の概要: Investigating Poor Performance Regions of Black Boxes: LIME-based
Exploration in Sepsis Detection
- arxiv url: http://arxiv.org/abs/2306.12507v1
- Date: Wed, 21 Jun 2023 18:36:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 16:34:22.203446
- Title: Investigating Poor Performance Regions of Black Boxes: LIME-based
Exploration in Sepsis Detection
- Title(参考訳): ブラックボックスの低性能領域の調査:シープシス検出におけるLIMEに基づく探索
- Authors: Mozhgan Salimiparsa, Surajsinh Parmar, San Lee, Choongmin Kim,
Yonghwan Kim, Jang Yong Kim
- Abstract要約: 本稿では,局部解釈可能なモデル非依存記述(LIME)を活用し,セプシス検出におけるブラックボックス分類モデルの解釈可能な記述を提供する。
誤分類されたインスタンスを分析することで、最適以下のパフォーマンスに寄与する重要な特徴が特定される。
- 参考スコア(独自算出の注目度): 0.5872014229110214
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Interpreting machine learning models remains a challenge, hindering their
adoption in clinical settings. This paper proposes leveraging Local
Interpretable Model-Agnostic Explanations (LIME) to provide interpretable
descriptions of black box classification models in high-stakes sepsis
detection. By analyzing misclassified instances, significant features
contributing to suboptimal performance are identified. The analysis reveals
regions where the classifier performs poorly, allowing the calculation of error
rates within these regions. This knowledge is crucial for cautious
decision-making in sepsis detection and other critical applications. The
proposed approach is demonstrated using the eICU dataset, effectively
identifying and visualizing regions where the classifier underperforms. By
enhancing interpretability, our method promotes the adoption of machine
learning models in clinical practice, empowering informed decision-making and
mitigating risks in critical scenarios.
- Abstract(参考訳): 機械学習モデルの解釈は依然として課題であり、臨床環境での採用を妨げる。
本稿では,局所的解釈可能なモデル非依存的説明(lime)を用いて,ブラックボックス分類モデルの解釈可能な記述法を提案する。
誤分類されたインスタンスを分析することで、サブ最適性能に寄与する重要な特徴が特定される。
分析は、分類器が性能の悪い領域を明らかにし、これらの領域内のエラー率の計算を可能にする。
この知識は敗血症検出やその他の重要な応用において慎重な意思決定に不可欠である。
提案手法はeICUデータセットを用いて,分類器が性能の低い領域を効果的に識別・可視化する。
本手法は,解釈可能性を高めることにより,臨床実践における機械学習モデルの採用を促進するとともに,重要なシナリオにおける意思決定とリスク軽減を支援する。
関連論文リスト
- Interpretability of Uncertainty: Exploring Cortical Lesion Segmentation in Multiple Sclerosis [33.91263917157504]
不確実性定量化(UQ)は人工知能システムの信頼性を評価する上で重要である。
本研究では,磁気共鳴画像における焦点病変分割のための深層学習モデルにおけるインスタンス単位の不確実性値の解釈可能性について検討する。
論文 参考訳(メタデータ) (2024-07-08T09:13:30Z) - Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - SHAMSUL: Systematic Holistic Analysis to investigate Medical
Significance Utilizing Local interpretability methods in deep learning for
chest radiography pathology prediction [1.0138723409205497]
局所的解釈可能なモデル非依存説明法(LIME)、共有付加的説明法(SHAP)、グラディエント重み付きクラス活性化マッピング(Grad-CAM)、レイヤワイド関連伝搬法(LRP)の4つの方法の適用について検討した。
本分析では, 単一ラベルと多ラベルの予測を両方含み, 定量的, 定性的な調査を通じて包括的かつ不偏な評価を行い, 人的専門家のアノテーションと比較した。
論文 参考訳(メタデータ) (2023-07-16T11:10:35Z) - Deployment of Image Analysis Algorithms under Prevalence Shifts [6.373765910269204]
領域ギャップは、医療画像解析のための機械学習(ML)ベースのソリューションの臨床的翻訳において、最も関連する障害の一つである。
そこで本研究では,トレーニング済みの分類器を新しい環境に適応させるために,推定したデプロイメントの頻度を利用して精度の高い画像分類を行うワークフローを提案する。
論文 参考訳(メタデータ) (2023-03-22T13:16:37Z) - Plugin estimators for selective classification with out-of-distribution
detection [67.28226919253214]
現実世界の分類器は、信頼性の低いサンプルの予測を控えることの恩恵を受けることができる。
これらの設定は、選択分類(SC)とアウト・オブ・ディストリビューション(OOD)の検出文献において広範囲に研究されている。
OOD検出による選択分類に関する最近の研究は、これらの問題の統一的な研究を議論している。
本稿では,既存の手法を理論的に基礎づけ,有効かつ一般化したSCOD用プラグイン推定器を提案する。
論文 参考訳(メタデータ) (2023-01-29T07:45:17Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - Spatial machine-learning model diagnostics: a model-agnostic
distance-based approach [91.62936410696409]
本研究は,空間予測誤差プロファイル (SPEP) と空間変数重要度プロファイル (SVIP) を,新しいモデルに依存しない評価・解釈ツールとして提案する。
統計学的手法、線形モデル、ランダムフォレスト、ハイブリッドアルゴリズムのSPEPとSVIPは、顕著な差異と関連する類似性を示している。
この新しい診断ツールは空間データ科学のツールキットを充実させ、MLモデルの解釈、選択、設計を改善する可能性がある。
論文 参考訳(メタデータ) (2021-11-13T01:50:36Z) - MCDAL: Maximum Classifier Discrepancy for Active Learning [74.73133545019877]
近年の最先端のアクティブラーニング手法は, 主にGAN(Generative Adversarial Networks)をサンプル取得に活用している。
本稿では,MCDAL(Maximum Discrepancy for Active Learning)と呼ぶ新しいアクティブラーニングフレームワークを提案する。
特に,両者の差分を最大化することにより,より厳密な決定境界を学習する2つの補助的分類層を利用する。
論文 参考訳(メタデータ) (2021-07-23T06:57:08Z) - Quantifying Explainability in NLP and Analyzing Algorithms for
Performance-Explainability Tradeoff [0.0]
臨床テキスト分類におけるケーススタディにおける説明可能性と解釈可能性の現状について考察する。
完全解釈可能な手法とモデルに依存しないポストホック属性に対する様々な可視化手法を実証する。
我々は,モデルの予測性能と利用可能な説明の質との間のフロンティアを,実践者や研究者が評価できる枠組みを導入する。
論文 参考訳(メタデータ) (2021-07-12T19:07:24Z) - An Efficient Framework for Automated Screening of Clinically Significant
Macular Edema [0.41998444721319206]
本研究は,臨床上重要な黄斑浮腫(CSME)の自動スクリーニングのための新しいアプローチを提案する。
提案手法は、トレーニング済みのディープニューラルネットワークとメタヒューリスティックな特徴選択を組み合わせたものである。
スクイードデータセットの効果を克服するために、機能領域のオーバーサンプリング技術が使用されている。
論文 参考訳(メタデータ) (2020-01-20T07:34:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。