論文の概要: SSplain: Sparse and Smooth Explainer for Retinopathy of Prematurity Classification
- arxiv url: http://arxiv.org/abs/2512.08038v1
- Date: Mon, 08 Dec 2025 21:00:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.723598
- Title: SSplain: Sparse and Smooth Explainer for Retinopathy of Prematurity Classification
- Title(参考訳): SSplain : 未熟分類網膜症に対するSsplainとSmooth Explainer
- Authors: Elifnur Sunger, Tales Imbiriba, Peter Campbell, Deniz Erdogmus, Stratis Ioannidis, Jennifer Dy,
- Abstract要約: 本稿では,眼底画像から未熟児網膜症(ROP)の分類法を提案する。
従来の手法では、滑らかさや疎さといった入力画像構造を保存する説明が得られなかった。
SSplainは画像構造をスムーズかつスムーズに保ちながら画素ワイズな説明を生成する手法である。
- 参考スコア(独自算出の注目度): 20.689210549616167
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks are frequently used in medical diagnosis. However, due to their black-box nature, model explainers are used to help clinicians understand better and trust model outputs. This paper introduces an explainer method for classifying Retinopathy of Prematurity (ROP) from fundus images. Previous methods fail to generate explanations that preserve input image structures such as smoothness and sparsity. We introduce Sparse and Smooth Explainer (SSplain), a method that generates pixel-wise explanations while preserving image structures by enforcing smoothness and sparsity. This results in realistic explanations to enhance the understanding of the given black-box model. To achieve this goal, we define an optimization problem with combinatorial constraints and solve it using the Alternating Direction Method of Multipliers (ADMM). Experimental results show that SSplain outperforms commonly used explainers in terms of both post-hoc accuracy and smoothness analyses. Additionally, SSplain identifies features that are consistent with domain-understandable features that clinicians consider as discriminative factors for ROP. We also show SSplain's generalization by applying it to additional publicly available datasets. Code is available at https://github.com/neu-spiral/SSplain.
- Abstract(参考訳): ニューラルネットワークは、しばしば医学的診断に使用される。
しかしながら、ブラックボックスの性質から、臨床医がモデル出力をよりよく理解し、信頼できるものにするためにモデル説明器が用いられている。
本稿では,眼底画像から未熟児網膜症(ROP)の分類法を提案する。
従来の手法では、滑らかさや疎さといった入力画像構造を保存する説明が得られなかった。
Sparse and Smooth Explainer (SSplain) は画像構造を保ちながら画像の滑らかさと疎さを保ちながら画素ワイズな説明を生成する手法である。
これにより、与えられたブラックボックスモデルの理解を深める現実的な説明が得られる。
この目的を達成するために、組合せ制約による最適化問題を定義し、ALMM(Alternating Direction Method of Multipliers)を用いて解決する。
実験結果から,SSplainはポストホックの精度と滑らかさの両面から説明器よりも優れていることがわかった。
さらに、SSplainは、臨床医がROPの差別的要因と見なすドメイン理解可能な特徴と整合した特徴を識別する。
また、SSplainの一般向けデータセットに適用することで、SSplainの一般化を示す。
コードはhttps://github.com/neu-spiral/SSplain.comから入手できる。
関連論文リスト
- A Graph-Based Framework for Interpretable Whole Slide Image Analysis [86.37618055724441]
我々は,全スライディング画像を生物学的にインフォームドされたグラフ表現に変換するフレームワークを開発した。
我々のアプローチは、任意の格子ではなく、自然構造を尊重する組織領域からグラフノードを構築する。
がんのステージングと生存予測の課題に強いパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-03-14T20:15:04Z) - This changes to that : Combining causal and non-causal explanations to
generate disease progression in capsule endoscopy [5.287156503763459]
本稿では,モデル依存型と非依存型の両方を組み合わせて説明セットを生成する統一的説明手法を提案する。
生成された説明はサンプルの近傍で一貫性があり、画像の内容と結果の因果関係を明らかにすることができる。
論文 参考訳(メタデータ) (2022-12-05T12:46:19Z) - Interpretations Steered Network Pruning via Amortized Inferred Saliency
Maps [85.49020931411825]
限られたリソースを持つエッジデバイスにこれらのモデルをデプロイするには、畳み込みニューラルネットワーク(CNN)圧縮が不可欠である。
本稿では,新しい視点からチャネルプルーニング問題に対処するために,モデルの解釈を活用して,プルーニング過程を解析する手法を提案する。
本研究では,実時間スムーズなスムーズなスムーズなスムーズなマスク予測を行うセレクタモデルを導入することで,この問題に対処する。
論文 参考訳(メタデータ) (2022-09-07T01:12:11Z) - CheXplaining in Style: Counterfactual Explanations for Chest X-rays
using StyleGAN [42.4322542603446]
我々は, 胸部X線に対して, 潜伏空間内の特定の潜伏方向を操作することによって, 逆実説明を行う。
我々は, 放射線技師の助けを借りて, 副作用説明の妥当性を臨床的に評価した。
論文 参考訳(メタデータ) (2022-07-15T15:51:08Z) - The Manifold Hypothesis for Gradient-Based Explanations [55.01671263121624]
勾配に基づく説明アルゴリズムは知覚的に整合した説明を提供する。
特徴属性がデータの接する空間と一致しているほど、知覚的に一致している傾向にあることを示す。
説明アルゴリズムは、その説明をデータ多様体と整合させるよう積極的に努力すべきである。
論文 参考訳(メタデータ) (2022-06-15T08:49:24Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - medXGAN: Visual Explanations for Medical Classifiers through a
Generative Latent Space [38.57696431713717]
本稿では,医用画像生成フレームワークであるmedXGANを提案する。
医用画像のドメイン知識を符号化することにより、解剖学的構造と病理を切り離すことができ、微細な可視化が可能となる。
本手法は,グラディエント重み付きクラスアクティベーションマッピング(Grad-CAM)や統合グラディエント(Integrated Gradients)などのベースラインを局所化や説明能力において上回る。
論文 参考訳(メタデータ) (2022-04-11T19:27:15Z) - Learning Discriminative Shrinkage Deep Networks for Image Deconvolution [122.79108159874426]
本稿では,これらの用語を暗黙的にモデル化する識別的縮小関数を学習することで,効果的に非盲検デコンボリューション手法を提案する。
実験結果から,提案手法は最先端の手法に対して,効率と精度の点で好適に動作することがわかった。
論文 参考訳(メタデータ) (2021-11-27T12:12:57Z) - Combining Similarity and Adversarial Learning to Generate Visual
Explanation: Application to Medical Image Classification [0.0]
学習フレームワークを活用して視覚的説明法を作成する。
文献のメトリクスを用いることで,この手法は最先端のアプローチよりも優れています。
大規模な胸部X線データベース上でのアプローチを検証する。
論文 参考訳(メタデータ) (2020-12-14T08:34:12Z) - Generalized Zero-Shot Learning via VAE-Conditioned Generative Flow [83.27681781274406]
一般化されたゼロショット学習は、意味的記述から視覚的表現へ知識を移すことによって、目に見えないクラスと見えないクラスの両方を認識することを目的としている。
近年のGZSLはデータ不足問題として定式化されており、主にGANやVAEを採用して、目に見えないクラスの視覚的特徴を生成する。
GZSLのための条件付き生成フロー,すなわちVAE-Conditioned Generative Flow (VAE-cFlow)を提案する。
論文 参考訳(メタデータ) (2020-09-01T09:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。