論文の概要: An interpretable prototype parts-based neural network for medical tabular data
- arxiv url: http://arxiv.org/abs/2603.05423v1
- Date: Thu, 05 Mar 2026 17:43:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.351933
- Title: An interpretable prototype parts-based neural network for medical tabular data
- Title(参考訳): 医用表データのための解釈可能な部品ベースニューラルネットワーク
- Authors: Jacek Karolczak, Jerzy Stefanowski,
- Abstract要約: 本稿では,診断結果規範の離散化を必要とする表型データ,特に医療記録に適した新しいモデルを提案する。
空間構造に依存した当初の視覚モデルとは異なり、本手法では患者を記述した特徴に対してトレーニング可能なパッチを適用する。
これにより、モデルはプロトタイプを可読な言葉で表現することができ、臨床言語やケースベースの推論と一致させることができる。
提案するニューラルネットワークは本質的に解釈可能であり,ネットワークの潜在空間における学習プロトタイプと患者の記述を比較して解釈可能な概念に基づく予測を提供する。
- 参考スコア(独自算出の注目度): 2.7859337708965395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to interpret machine learning model decisions is critical in such domains as healthcare, where trust in model predictions is as important as their accuracy. Inspired by the development of prototype parts-based deep neural networks in computer vision, we propose a new model for tabular data, specifically tailored to medical records, that requires discretization of diagnostic result norms. Unlike the original vision models that rely on the spatial structure, our method employs trainable patching over features describing a patient, to learn meaningful prototypical parts from structured data. These parts are represented as binary or discretized feature subsets. This allows the model to express prototypes in human-readable terms, enabling alignment with clinical language and case-based reasoning. Our proposed neural network is inherently interpretable and offers interpretable concept-based predictions by comparing the patient's description to learned prototypes in the latent space of the network. In experiments, we demonstrate that the model achieves classification performance competitive to widely used baseline models on medical benchmark datasets, while also offering transparency, bridging the gap between predictive performance and interpretability in clinical decision support.
- Abstract(参考訳): 機械学習モデル決定を解釈する能力は、モデル予測への信頼が正確さと同じくらい重要である医療のような分野において重要である。
コンピュータビジョンにおける深部ニューラルネットワークの試作に着想を得て,診断結果規範の離散化を必要とする表型データ,特に医療記録に適した新しいモデルを提案する。
空間構造に依存した当初の視覚モデルとは異なり,本手法では患者を記述した特徴に対して,有意な原型部分を構造化データから学習するためにトレーニング可能なパッチを適用する。
これらの部分はバイナリまたは離散化された機能サブセットとして表現される。
これにより、モデルはプロトタイプを可読な言葉で表現することができ、臨床言語やケースベースの推論と一致させることができる。
提案するニューラルネットワークは本質的に解釈可能であり,ネットワークの潜在空間における学習プロトタイプと患者の記述を比較して解釈可能な概念に基づく予測を提供する。
実験では,医療ベンチマークデータセット上で広く使用されているベースラインモデルと競合する分類性能を実現するとともに,臨床診断支援における予測性能と解釈可能性のギャップを埋める透明性を提供する。
関連論文リスト
- Interpretable Clinical Classification with Kolgomorov-Arnold Networks [70.72819760172744]
Kolmogorov-Arnold Networks (KAN) は、透明で象徴的な表現を通じて固有の解釈能力を提供する。
Kansは、組み込みの患者レベルの洞察、直感的な可視化、最寄りの患者の検索をサポートする。
これらの結果は、カンを、臨床医が理解し、監査し、行動できる信頼できるAIへの有望なステップと位置づけている。
論文 参考訳(メタデータ) (2025-09-20T17:21:58Z) - Hybrid Interpretable Deep Learning Framework for Skin Cancer Diagnosis: Integrating Radial Basis Function Networks with Explainable AI [1.1049608786515839]
皮膚がんは世界中で最も流行し、致命的な疾患の1つである。
本稿では,畳み込みニューラルネットワーク(CNN)とラジアル基底関数(RBF)ネットワークを統合するハイブリッドディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-24T19:19:02Z) - Selecting Interpretability Techniques for Healthcare Machine Learning models [69.65384453064829]
医療では、いくつかの意思決定シナリオにおいて、医療専門家を支援するために解釈可能なアルゴリズムを採用することが追求されている。
本稿では, ポストホックとモデルベースという8つのアルゴリズムを概説する。
論文 参考訳(メタデータ) (2024-06-14T17:49:04Z) - Interpretable Medical Image Classification using Prototype Learning and
Privileged Information [0.0]
解釈可能性はしばしば医療画像に必須の要件である。
本研究では,学習プロセスで利用可能な追加情報を用いて,理解しやすく強力なモデルを構築することができるかを検討する。
本稿では,カプセルネットワーク,プロトタイプ学習,特権情報の利用といったメリットを活用する,Proto-Capsと呼ばれる革新的なソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-24T11:28:59Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - This Patient Looks Like That Patient: Prototypical Networks for
Interpretable Diagnosis Prediction from Clinical Text [56.32427751440426]
臨床実践においては、そのようなモデルは正確であるだけでなく、医師に解釈可能で有益な結果を与える必要がある。
本稿では,プロトタイプネットワークに基づく新しい手法であるProtoPatientを紹介する。
利用可能な2つの臨床データセット上でモデルを評価し、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-16T10:12:07Z) - Convolutional Motif Kernel Networks [1.104960878651584]
我々のモデルは、小さなデータセットでしっかりと学習でき、関連する医療予測タスクで最先端のパフォーマンスを達成できることを示す。
提案手法はDNAおよびタンパク質配列に利用することができる。
論文 参考訳(メタデータ) (2021-11-03T15:06:09Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。