論文の概要: Prototype Learning for Explainable Regression
- arxiv url: http://arxiv.org/abs/2306.09858v1
- Date: Fri, 16 Jun 2023 14:13:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-19 13:41:52.650967
- Title: Prototype Learning for Explainable Regression
- Title(参考訳): 説明可能な回帰のためのプロトタイプ学習
- Authors: Linde S. Hesse, Nicola K. Dinsdale, Ana I. L. Namburete
- Abstract要約: 回帰タスクに特化して設計された,説明可能なプロトタイプベースモデルであるExPeRTを提案する。
提案モデルでは,プロトタイプラベルの重み付き平均値を用いて,学習したプロトタイプのラテント空間における距離からサンプル予測を行う。
成人MRIと胎児超音波の2つの画像データセットを用いた脳年齢予測の課題に関するモデルを提案する。
- 参考スコア(独自算出の注目度): 2.0625936401496237
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The lack of explainability limits the adoption of deep learning models in
clinical practice. While methods exist to improve the understanding of such
models, these are mainly saliency-based and developed for classification,
despite many important tasks in medical imaging being continuous regression
problems. Therefore, in this work, we present ExPeRT: an explainable
prototype-based model specifically designed for regression tasks. Our proposed
model makes a sample prediction from the distances to a set of learned
prototypes in latent space, using a weighted mean of prototype labels. The
distances in latent space are regularized to be relative to label differences,
and each of the prototypes can be visualized as a sample from the training set.
The image-level distances are further constructed from patch-level distances,
in which the patches of both images are structurally matched using optimal
transport. We demonstrate our proposed model on the task of brain age
prediction on two image datasets: adult MR and fetal ultrasound. Our approach
achieved state-of-the-art prediction performance while providing insight in the
model's reasoning process.
- Abstract(参考訳): 説明可能性の欠如は、臨床におけるディープラーニングモデルの採用を制限する。
このようなモデルの理解を深める手法は存在するが、これらは主に正当性に基づくもので、連続回帰問題である医療画像において重要な課題が数多くあるにもかかわらず、分類のために開発されたものである。
そこで本研究では,回帰タスクに特化したプロトタイプベースモデルであるExPeRTを提案する。
提案モデルでは,プロトタイプラベルの重み付き平均値を用いて,学習したプロトタイプのラテント空間における距離からサンプル予測を行う。
潜在空間における距離はラベルの違いに相対して正規化され、各プロトタイプはトレーニングセットからサンプルとして可視化することができる。
画像レベルの距離はパッチレベルの距離からさらに構築され、両者のパッチは最適なトランスポートを用いて構造的に一致する。
成人MRIと胎児超音波の2つの画像データセットを用いた脳年齢予測の課題に関するモデルを提案する。
提案手法は,モデル推論プロセスの知見を提供しながら,最先端の予測性能を達成した。
関連論文リスト
- Enhancing Interpretability of Vertebrae Fracture Grading using Human-interpretable Prototypes [7.633493982907541]
本稿では,脊椎骨折(原型)の関連部分を見つけるための新しい解釈可能な設計手法であるProtoVerseを提案し,そのモデルの決定を人間に理解可能な方法で確実に説明する。
We have been experiment with the VerSe'19 dataset and outformed the existing prototype-based method。
論文 参考訳(メタデータ) (2024-04-03T16:04:59Z) - A Lightweight Causal Model for Interpretable Subject-level Prediction [0.17999333451993946]
本稿では,本質的に解釈可能な単一対象予測手法を提案する。
実験により、結果のモデルを効率よく逆転させ、正確な主観レベルの予測を行うことが示されている。
論文 参考訳(メタデータ) (2023-06-19T18:20:29Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Spatial machine-learning model diagnostics: a model-agnostic
distance-based approach [91.62936410696409]
本研究は,空間予測誤差プロファイル (SPEP) と空間変数重要度プロファイル (SVIP) を,新しいモデルに依存しない評価・解釈ツールとして提案する。
統計学的手法、線形モデル、ランダムフォレスト、ハイブリッドアルゴリズムのSPEPとSVIPは、顕著な差異と関連する類似性を示している。
この新しい診断ツールは空間データ科学のツールキットを充実させ、MLモデルの解釈、選択、設計を改善する可能性がある。
論文 参考訳(メタデータ) (2021-11-13T01:50:36Z) - Probabilistic Modeling for Human Mesh Recovery [73.11532990173441]
本稿では,2次元の証拠から3次元の人体復元の問題に焦点を当てた。
我々は,この問題を,入力から3Dポーズの分布へのマッピング学習として再考した。
論文 参考訳(メタデータ) (2021-08-26T17:55:11Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Using StyleGAN for Visual Interpretability of Deep Learning Models on
Medical Images [0.7874708385247352]
画像上の任意のブラックボックスモデルの予測を理解するために使用できる新しい解釈可能性法を提案する。
StyleGANは医療画像に基づいて訓練され、潜伏ベクトルと画像のマッピングを提供する。
この方向に沿って入力画像の潜在表現をシフトさせることにより、予測が変化する一連の新しい合成画像を生成することができる。
論文 参考訳(メタデータ) (2021-01-19T11:13:20Z) - Abstracting Deep Neural Networks into Concept Graphs for Concept Level
Interpretability [0.39635467316436124]
我々は,学習した概念のグラフィカルな表現を構築することで,医療領域における画像処理タスクを実行する訓練されたモデルの振る舞いを理解することを試みる。
本稿では,脳腫瘍の分節化と基底画像の分類という2つの生体医学的問題に対する提案手法の適用について述べる。
論文 参考訳(メタデータ) (2020-08-14T16:34:32Z) - Are Visual Explanations Useful? A Case Study in Model-in-the-Loop
Prediction [49.254162397086006]
画像に基づく年齢予測課題における視覚的満足度に基づく説明について検討する。
モデル予測の提示により,人間の精度が向上することが判明した。
しかし、様々な種類の説明は、人間の正確さやモデルの信頼を著しく変えることができない。
論文 参考訳(メタデータ) (2020-07-23T20:39:40Z) - Concept Bottleneck Models [79.91795150047804]
現在の最先端モデルは、通常「骨の支柱の存在」のような概念の操作をサポートしない。
トレーニング時に提供される概念を最初に予測し、ラベルを予測するためにこれらの概念を使用するという古典的な考え方を再考する。
X線グレーディングと鳥の識別では、概念ボトルネックモデルが標準のエンドツーエンドモデルと競合する精度を達成する。
論文 参考訳(メタデータ) (2020-07-09T07:47:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。