論文の概要: PointExplainer: Towards Transparent Parkinson's Disease Diagnosis
- arxiv url: http://arxiv.org/abs/2505.03833v1
- Date: Sun, 04 May 2025 12:23:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:35.854326
- Title: PointExplainer: Towards Transparent Parkinson's Disease Diagnosis
- Title(参考訳): PointExplainer : 透明パーキンソン病診断に向けて
- Authors: Xuechao Wang, Sven Nomm, Junqing Huang, Kadri Medijainen, Aaro Toomela, Michael Ruzhansky,
- Abstract要約: ディープニューラルネットワークは、パーキンソン病の早期診断のためにデジタル化された手書き信号を分析する可能性を示している。
既存の診断方法における明確な解釈可能性の欠如は、臨床信頼への挑戦である。
モデル診断を駆動する手書き領域を特定するための説明可能な診断戦略であるPointExplainerを提案する。
- 参考スコア(独自算出の注目度): 2.1063903985563988
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have shown potential in analyzing digitized hand-drawn signals for early diagnosis of Parkinson's disease. However, the lack of clear interpretability in existing diagnostic methods presents a challenge to clinical trust. In this paper, we propose PointExplainer, an explainable diagnostic strategy to identify hand-drawn regions that drive model diagnosis. Specifically, PointExplainer assigns discrete attribution values to hand-drawn segments, explicitly quantifying their relative contributions to the model's decision. Its key components include: (i) a diagnosis module, which encodes hand-drawn signals into 3D point clouds to represent hand-drawn trajectories, and (ii) an explanation module, which trains an interpretable surrogate model to approximate the local behavior of the black-box diagnostic model. We also introduce consistency measures to further address the issue of faithfulness in explanations. Extensive experiments on two benchmark datasets and a newly constructed dataset show that PointExplainer can provide intuitive explanations with no diagnostic performance degradation. The source code is available at https://github.com/chaoxuewang/PointExplainer.
- Abstract(参考訳): ディープニューラルネットワークは、パーキンソン病の早期診断のためにデジタル化された手書き信号を分析する可能性を示している。
しかし, 既往の診断方法における明確な解釈可能性の欠如は, 臨床信頼への課題となっている。
本稿では,モデル診断を駆動する手書き領域を特定するための説明可能な診断戦略であるPointExplainerを提案する。
具体的には、PointExplainerは個別の属性値を手書きのセグメントに割り当て、モデルの決定に対する相対的な貢献を明示的に定量化する。
主な構成要素は以下のとおりである。
一 手描きの信号を3次元の点群にエンコードして手描きの軌跡を表わす診断モジュール
二 ブラックボックス診断モデルの局所挙動を近似するために解釈可能な代理モデルを訓練する説明モジュール。
また、説明における忠実性の問題をさらに解決するために、一貫性対策も導入する。
2つのベンチマークデータセットと新たに構築されたデータセットに関する大規模な実験は、PointExplainerが診断性能を劣化させることなく直感的に説明できることを示している。
ソースコードはhttps://github.com/chaoxuewang/PointExplainer.comで入手できる。
関連論文リスト
- Towards the Identifiability and Explainability for Personalized Learner
Modeling: An Inductive Paradigm [36.60917255464867]
本稿では,エンコーダ・デコーダモデルにインスパイアされた新しい応答効率応答パラダイムに基づく,識別可能な認知診断フレームワークを提案する。
診断精度を損なうことなく,ID-CDFが効果的に対処できることが示唆された。
論文 参考訳(メタデータ) (2023-09-01T07:18:02Z) - DxFormer: A Decoupled Automatic Diagnostic System Based on
Decoder-Encoder Transformer with Dense Symptom Representations [26.337392652262103]
診断指向対話システムは患者の健康状態を照会し、患者との継続的な対話を通じて疾患の予測を行う。
本稿では,診断プロセスを症状調査と疾患診断の2つの段階に分割する,分離された自動診断フレームワークDxFormerを提案する。
提案モデルは,医師の臨床経験を効果的に学習し,症状のリコールと診断精度の点で最先端の結果を得ることができる。
論文 参考訳(メタデータ) (2022-05-08T01:52:42Z) - Interpretable Vertebral Fracture Diagnosis [69.68641439851777]
ブラックボックスニューラルネットワークモデルは、骨折診断のための臨床的に関連する特徴を学習する。
この研究は、CT画像における脊椎骨折の診断にネットワークが使用する概念を特定する。
論文 参考訳(メタデータ) (2022-03-30T13:07:41Z) - Learn-Explain-Reinforce: Counterfactual Reasoning and Its Guidance to
Reinforce an Alzheimer's Disease Diagnosis Model [1.6287500717172143]
本稿では、診断モデル学習、視覚的説明生成、訓練された診断モデル強化を統一する新しいフレームワークを提案する。
視覚的説明のために,対象ラベルとして識別される入力サンプルを変換する反ファクトマップを生成する。
論文 参考訳(メタデータ) (2021-08-21T07:29:13Z) - Improving Interpretability of Deep Neural Networks in Medical Diagnosis
by Investigating the Individual Units [24.761080054980713]
入力画像における重要な要素を可視化することにより,最近の帰属技術の有効性を実証し,診断の意思決定を説明する。
アンマキングマシンインテリジェンスの分析は、診断決定における説明可能性の必要性を示している。
論文 参考訳(メタデータ) (2021-07-19T11:49:31Z) - Inheritance-guided Hierarchical Assignment for Clinical Automatic
Diagnosis [50.15205065710629]
臨床診断は、臨床ノートに基づいて患者に診断符号を割り当てることを目的としており、臨床意思決定において重要な役割を担っている。
本稿では,臨床自動診断のための継承誘導階層と共起グラフの伝播を組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-01-27T13:16:51Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Towards Causality-Aware Inferring: A Sequential Discriminative Approach
for Medical Diagnosis [142.90770786804507]
医学診断アシスタント(MDA)は、疾患を識別するための症状を逐次調査する対話型診断エージェントを構築することを目的としている。
この研究は、因果図を利用して、MDAにおけるこれらの重要な問題に対処しようとする。
本稿では,他の記録から知識を引き出すことにより,非記録的調査に効果的に答える確率に基づく患者シミュレータを提案する。
論文 参考訳(メタデータ) (2020-03-14T02:05:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。