論文の概要: Prototype Learning for Explainable Brain Age Prediction
- arxiv url: http://arxiv.org/abs/2306.09858v2
- Date: Mon, 6 Nov 2023 15:22:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 19:33:48.823809
- Title: Prototype Learning for Explainable Brain Age Prediction
- Title(参考訳): 説明可能な脳年齢予測のためのプロトタイプ学習
- Authors: Linde S. Hesse, Nicola K. Dinsdale, Ana I. L. Namburete
- Abstract要約: 回帰タスクに特化して設計された,説明可能なプロトタイプベースモデルであるExPeRTを提案する。
提案モデルでは,プロトタイプラベルの重み付き平均値を用いて,学習したプロトタイプのラテント空間における距離からサンプル予測を行う。
提案手法は,モデル推論プロセスに関する知見を提供しながら,最先端の予測性能を実現した。
- 参考スコア(独自算出の注目度): 1.104960878651584
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The lack of explainability of deep learning models limits the adoption of
such models in clinical practice. Prototype-based models can provide inherent
explainable predictions, but these have predominantly been designed for
classification tasks, despite many important tasks in medical imaging being
continuous regression problems. Therefore, in this work, we present ExPeRT: an
explainable prototype-based model specifically designed for regression tasks.
Our proposed model makes a sample prediction from the distances to a set of
learned prototypes in latent space, using a weighted mean of prototype labels.
The distances in latent space are regularized to be relative to label
differences, and each of the prototypes can be visualized as a sample from the
training set. The image-level distances are further constructed from
patch-level distances, in which the patches of both images are structurally
matched using optimal transport. This thus provides an example-based
explanation with patch-level detail at inference time. We demonstrate our
proposed model for brain age prediction on two imaging datasets: adult MR and
fetal ultrasound. Our approach achieved state-of-the-art prediction performance
while providing insight into the model's reasoning process.
- Abstract(参考訳): 深層学習モデルの説明可能性の欠如は、臨床実践におけるそのようなモデルの採用を制限する。
プロトタイプベースのモデルは、本質的に説明可能な予測を提供することができるが、これらは主に分類タスクのために設計されている。
そこで本研究では,回帰タスクに特化したプロトタイプベースモデルであるExPeRTを提案する。
提案モデルでは,プロトタイプラベルの重み付き平均値を用いて,学習したプロトタイプのラテント空間における距離からサンプル予測を行う。
潜在空間における距離はラベルの違いに相対して正規化され、各プロトタイプはトレーニングセットからサンプルとして可視化することができる。
画像レベルの距離はパッチレベルの距離からさらに構築され、両者のパッチは最適なトランスポートを用いて構造的に一致する。
これにより、推論時にパッチレベルの詳細を持つサンプルベースの説明が提供される。
成人MRIと胎児超音波の2つの画像データセットを用いて脳年齢予測モデルを提案する。
提案手法は,モデル推論プロセスに関する知見を提供しながら,最先端の予測性能を達成した。
関連論文リスト
- ProtoS-ViT: Visual foundation models for sparse self-explainable classifications [0.6249768559720122]
この研究は、凍結したトレーニング済みのViTバックボーンが、いかに効果的に原型モデルに変換できるかを示す。
ProtoS-ViTは、精度、コンパクト性、説明可能性の点で優れた性能を示す既存のプロトタイプモデルを上回る。
論文 参考訳(メタデータ) (2024-06-14T13:36:30Z) - Causal Estimation of Memorisation Profiles [58.20086589761273]
言語モデルにおける記憶の理解は、実践的および社会的意味を持つ。
覚書化(英: Memorisation)とは、モデルがそのインスタンスを予測できる能力に対して、あるインスタンスでトレーニングを行うことによる因果的影響である。
本稿では,計量学の差分差分設計に基づく,新しい,原理的,効率的な記憶推定法を提案する。
論文 参考訳(メタデータ) (2024-06-06T17:59:09Z) - Enhancing Interpretability of Vertebrae Fracture Grading using Human-interpretable Prototypes [7.633493982907541]
本稿では,脊椎骨折(原型)の関連部分を見つけるための新しい解釈可能な設計手法であるProtoVerseを提案し,そのモデルの決定を人間に理解可能な方法で確実に説明する。
We have been experiment with the VerSe'19 dataset and outformed the existing prototype-based method。
論文 参考訳(メタデータ) (2024-04-03T16:04:59Z) - A Lightweight Generative Model for Interpretable Subject-level Prediction [0.07989135005592125]
本稿では,本質的に解釈可能な単一対象予測手法を提案する。
実験により、結果のモデルを効率よく逆転させ、正確な主観レベルの予測を行うことが示されている。
論文 参考訳(メタデータ) (2023-06-19T18:20:29Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Probabilistic Modeling for Human Mesh Recovery [73.11532990173441]
本稿では,2次元の証拠から3次元の人体復元の問題に焦点を当てた。
我々は,この問題を,入力から3Dポーズの分布へのマッピング学習として再考した。
論文 参考訳(メタデータ) (2021-08-26T17:55:11Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Using StyleGAN for Visual Interpretability of Deep Learning Models on
Medical Images [0.7874708385247352]
画像上の任意のブラックボックスモデルの予測を理解するために使用できる新しい解釈可能性法を提案する。
StyleGANは医療画像に基づいて訓練され、潜伏ベクトルと画像のマッピングを提供する。
この方向に沿って入力画像の潜在表現をシフトさせることにより、予測が変化する一連の新しい合成画像を生成することができる。
論文 参考訳(メタデータ) (2021-01-19T11:13:20Z) - Are Visual Explanations Useful? A Case Study in Model-in-the-Loop
Prediction [49.254162397086006]
画像に基づく年齢予測課題における視覚的満足度に基づく説明について検討する。
モデル予測の提示により,人間の精度が向上することが判明した。
しかし、様々な種類の説明は、人間の正確さやモデルの信頼を著しく変えることができない。
論文 参考訳(メタデータ) (2020-07-23T20:39:40Z) - Concept Bottleneck Models [79.91795150047804]
現在の最先端モデルは、通常「骨の支柱の存在」のような概念の操作をサポートしない。
トレーニング時に提供される概念を最初に予測し、ラベルを予測するためにこれらの概念を使用するという古典的な考え方を再考する。
X線グレーディングと鳥の識別では、概念ボトルネックモデルが標準のエンドツーエンドモデルと競合する精度を達成する。
論文 参考訳(メタデータ) (2020-07-09T07:47:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。