論文の概要: INSightR-Net: Interpretable Neural Network for Regression using
Similarity-based Comparisons to Prototypical Examples
- arxiv url: http://arxiv.org/abs/2208.00457v1
- Date: Sun, 31 Jul 2022 15:56:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 13:12:56.574734
- Title: INSightR-Net: Interpretable Neural Network for Regression using
Similarity-based Comparisons to Prototypical Examples
- Title(参考訳): INSightR-Net: 類似性に基づく回帰の解釈可能なニューラルネットワークとプロトタイプとの比較
- Authors: Linde S. Hesse and Ana I. L. Namburete
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、様々な医療画像のタスクにおいて、例外的な性能を示している。
そこで本研究では,類似度に基づく比較手法を用いて,レグレッションに対して本質的に解釈可能なCNNを提案する。
アーキテクチャに組み込まれたプロトタイプ層は、学習したプロトタイプと最もよく似た画像領域の可視化を可能にする。
最終的な予測は、類似性によって重み付けされたプロトタイプラベルの平均として直感的にモデル化される。
- 参考スコア(独自算出の注目度): 2.4366811507669124
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks (CNNs) have shown exceptional performance for a
range of medical imaging tasks. However, conventional CNNs are not able to
explain their reasoning process, therefore limiting their adoption in clinical
practice. In this work, we propose an inherently interpretable CNN for
regression using similarity-based comparisons (INSightR-Net) and demonstrate
our methods on the task of diabetic retinopathy grading. A prototype layer
incorporated into the architecture enables visualization of the areas in the
image that are most similar to learned prototypes. The final prediction is then
intuitively modeled as a mean of prototype labels, weighted by the
similarities. We achieved competitive prediction performance with our
INSightR-Net compared to a ResNet baseline, showing that it is not necessary to
compromise performance for interpretability. Furthermore, we quantified the
quality of our explanations using sparsity and diversity, two concepts
considered important for a good explanation, and demonstrated the effect of
several parameters on the latent space embeddings.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、様々な医療画像タスクにおいて、例外的な性能を示している。
しかし、従来のCNNは推論過程を説明できないため、臨床実践における導入を制限している。
そこで本研究では,類似度に基づく比較(insightr-net)を用いた回帰のための本質的解釈可能なcnnを提案する。
アーキテクチャに組み込まれたプロトタイプ層は、学習したプロトタイプと最もよく似た画像領域の可視化を可能にする。
最終的な予測は直観的にプロトタイプのラベルとしてモデル化され、類似性によって重み付けられる。
我々は,INSightR-NetとResNetベースラインとの競合予測性能を達成し,解釈可能性のために性能を損なう必要はないことを示した。
さらに,分散性と多様性を用いて説明の質を定量化し,良質な説明に重要な2つの概念を提示し,潜在空間埋め込みに対するパラメータの影響を実証した。
関連論文リスト
- Learning local discrete features in explainable-by-design convolutional neural networks [0.0]
本稿では,側方抑制機構に基づくCNN(Design-by-Design Convolutional Neural Network)を提案する。
このモデルは、残留または高密度のスキップ接続を持つ高精度CNNである予測器で構成されている。
観測を収集し,直接確率を計算することにより,隣接するレベルのモチーフ間の因果関係を説明することができる。
論文 参考訳(メタデータ) (2024-10-31T18:39:41Z) - Cognitive Networks and Performance Drive fMRI-Based State Classification Using DNN Models [0.0]
我々は、個々の認知状態を分類するために、構造的に異なる2つのDNNモデルと相補的なDNNモデルを用いる。
アーキテクチャ上の違いにもかかわらず、両者のモデルが常に予測精度と個人の認知性能との間に堅牢な関係を生んでいることを示す。
論文 参考訳(メタデータ) (2024-08-14T15:25:51Z) - Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - U-KAN Makes Strong Backbone for Medical Image Segmentation and Generation [48.40120035775506]
Kolmogorov-Arnold Networks (KAN)は、非線形学習可能なアクティベーション関数のスタックを通じてニューラルネットワーク学習を再構築する。
トークン化中間表現であるU-KAN上に専用kan層を統合することにより,確立したU-Netパイプラインを検証,修正,再設計する。
さらに、拡散モデルにおける代替U-Netノイズ予測器としてのU-KANの可能性を探り、タスク指向モデルアーキテクチャの生成にその適用性を実証した。
論文 参考訳(メタデータ) (2024-06-05T04:13:03Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Multilayer Multiset Neuronal Networks -- MMNNs [55.2480439325792]
本研究は,2層以上の類似性ニューロンを組み込んだ多層神経回路網について述べる。
また,回避すべき画像領域に割り当てられる反プロトタイプ点の利用についても検討した。
論文 参考訳(メタデータ) (2023-08-28T12:55:13Z) - Revisiting Hidden Representations in Transfer Learning for Medical
Imaging [2.4545492329339815]
7つの医学分類課題について,ImageNetとRadImageNetを比較した。
その結果,ImageNetとRadImageNetは直感とは対照的に,異なる中間表現に収束する可能性が示唆された。
その結果, ネットワーク間の微調整前後の類似性は, 性能向上と相関しないことがわかった。
論文 参考訳(メタデータ) (2023-02-16T13:04:59Z) - SPIN: An Empirical Evaluation on Sharing Parameters of Isotropic
Networks [25.465917853812538]
等方性ネットワークにおけるパラメータ共有手法に関する実験的検討を行った。
本稿では,全体効率のよいモデル群を生成するための重み共有戦略を提案する。
論文 参考訳(メタデータ) (2022-07-21T00:16:05Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - Investigation of REFINED CNN ensemble learning for anti-cancer drug
sensitivity prediction [0.0]
個々の細胞株に対するディープラーニングモデルを用いた抗がん剤感受性予測は、パーソナライズされた医療において重要な課題である。
ReFINED CNN(Convolutional Neural Network)ベースのモデルでは、薬物感受性の予測に有望な結果が示されている。
我々は,このようなマッピングから構築されたアンサンブルに基づいて,最高の1つのREFINED CNNモデル予測を改善することができる予測について検討する。
論文 参考訳(メタデータ) (2020-09-09T02:27:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。