論文の概要: Self-explaining Neural Network with Plausible Explanations
- arxiv url: http://arxiv.org/abs/2110.04598v1
- Date: Sat, 9 Oct 2021 15:32:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 18:23:23.451761
- Title: Self-explaining Neural Network with Plausible Explanations
- Title(参考訳): 説明可能な自己説明型ニューラルネットワーク
- Authors: Sayantan Kumar, Sean C. Yu, Andrew Michelson, Philip R.O. Payne
- Abstract要約: 本稿では, 経時的院内死亡予測のための自己説明型ニューラルネットワークを提案する。
我々は、説明の原子単位として、ドメイン知識駆動型逐次組織障害評価(SOFA)の臓器特異的スコアを使用します。
以上の結果から,SOFA臓器スコアの経時的変化による死亡率の変動について興味深い知見が得られた。
- 参考スコア(独自算出の注目度): 2.724141845301679
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explaining the predictions of complex deep learning models, often referred to
as black boxes, is critical in high-stakes domains like healthcare. However,
post-hoc model explanations often are not understandable by clinicians and are
difficult to integrate into clinical workflow. Further, while most explainable
models use individual clinical variables as units of explanation, human
understanding often rely on higher-level concepts or feature representations.
In this paper, we propose a novel, self-explaining neural network for
longitudinal in-hospital mortality prediction using domain-knowledge driven
Sequential Organ Failure Assessment (SOFA) organ-specific scores as the atomic
units of explanation. We also design a novel procedure to quantitatively
validate the model explanations against gold standard discharge diagnosis
information of patients. Our results provide interesting insights into how each
of the SOFA organ scores contribute to mortality at different timesteps within
longitudinal patient trajectory.
- Abstract(参考訳): 複雑なディープラーニングモデル(しばしばブラックボックスと呼ばれる)の予測を説明することは、医療のような高度な領域において重要である。
しかしながら,ポストホックモデルの説明は臨床医によっては理解できないことが多く,臨床ワークフローへの統合が困難である。
さらに、ほとんどの説明可能なモデルは個々の臨床変数を説明の単位として利用するが、人間の理解は高レベルの概念や特徴表現に依存していることが多い。
本稿では,ドメイン知識駆動型逐次臓器不全評価 (SOFA) を用いた縦断的死亡予測のための,自己説明型ニューラルネットワークを提案する。
また,患者の金標準放電診断情報に対するモデル説明を定量的に検証する新しい手法を考案した。
以上の結果から,各臓器スコアが経時的患者軌跡における死亡率の変動にどのように寄与するか,興味深い知見を得た。
関連論文リスト
- Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Evaluation of Human-Understandability of Global Model Explanations using
Decision Tree [8.263545324859969]
我々は、物語的、患者固有の、そしてグローバルなモデル説明を生成する。
特定のタイプの説明を強く好みます。
これは信頼と行動の両方が可能な健康情報システムの設計を導くものである。
論文 参考訳(メタデータ) (2023-09-18T16:30:14Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Pixel-Level Explanation of Multiple Instance Learning Models in
Biomedical Single Cell Images [52.527733226555206]
複数のインスタンス学習モデルを説明するための4つの属性法について検討する。
急性骨髄性白血病の2つのデータセットと100万以上の単細胞画像について検討した。
我々は、属性マップと医療専門家の注釈を比較し、モデルの意思決定が人間の基準とどのように異なるかを確認する。
論文 参考訳(メタデータ) (2023-03-15T14:00:11Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Review of Disentanglement Approaches for Medical Applications -- Towards
Solving the Gordian Knot of Generative Models in Healthcare [3.5586630313792513]
本稿では,GAN(Generative Adversarial Networks)やVAE(VAE),フローベースモデルなど,一般的な生成モデルの概要を紹介する。
理論的枠組みを導入した後,最近の医学的応用の概要を述べ,医学的応用における解離アプローチの影響と重要性について論じる。
論文 参考訳(メタデータ) (2022-03-21T17:06:22Z) - Using Causal Analysis for Conceptual Deep Learning Explanation [11.552000005640203]
理想的な説明はドメインエキスパートの意思決定プロセスに似ている。
胸部X線像を伴って放射線検査を行い,概念を定義した。
我々は、発見されたすべての概念を簡単な決定規則に変換するために、低深度決定木を構築します。
論文 参考訳(メタデータ) (2021-07-10T00:01:45Z) - Integrating Expert ODEs into Neural ODEs: Pharmacology and Disease
Progression [71.7560927415706]
潜在ハイブリッドモデル(LHM)は、専門家が設計したODEのシステムと機械学習したNeural ODEを統合し、システムのダイナミクスを完全に記述する。
新型コロナウイルス患者のLHMと実世界の集中治療データについて検討した。
論文 参考訳(メタデータ) (2021-06-05T11:42:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。