論文の概要: Prototype Learning for Explainable Regression
- arxiv url: http://arxiv.org/abs/2306.09858v1
- Date: Fri, 16 Jun 2023 14:13:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-19 13:41:52.650967
- Title: Prototype Learning for Explainable Regression
- Title(参考訳): 説明可能な回帰のためのプロトタイプ学習
- Authors: Linde S. Hesse, Nicola K. Dinsdale, Ana I. L. Namburete
- Abstract要約: 回帰タスクに特化して設計された,説明可能なプロトタイプベースモデルであるExPeRTを提案する。
提案モデルでは,プロトタイプラベルの重み付き平均値を用いて,学習したプロトタイプのラテント空間における距離からサンプル予測を行う。
成人MRIと胎児超音波の2つの画像データセットを用いた脳年齢予測の課題に関するモデルを提案する。
- 参考スコア(独自算出の注目度): 2.0625936401496237
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The lack of explainability limits the adoption of deep learning models in
clinical practice. While methods exist to improve the understanding of such
models, these are mainly saliency-based and developed for classification,
despite many important tasks in medical imaging being continuous regression
problems. Therefore, in this work, we present ExPeRT: an explainable
prototype-based model specifically designed for regression tasks. Our proposed
model makes a sample prediction from the distances to a set of learned
prototypes in latent space, using a weighted mean of prototype labels. The
distances in latent space are regularized to be relative to label differences,
and each of the prototypes can be visualized as a sample from the training set.
The image-level distances are further constructed from patch-level distances,
in which the patches of both images are structurally matched using optimal
transport. We demonstrate our proposed model on the task of brain age
prediction on two image datasets: adult MR and fetal ultrasound. Our approach
achieved state-of-the-art prediction performance while providing insight in the
model's reasoning process.
- Abstract(参考訳): 説明可能性の欠如は、臨床におけるディープラーニングモデルの採用を制限する。
このようなモデルの理解を深める手法は存在するが、これらは主に正当性に基づくもので、連続回帰問題である医療画像において重要な課題が数多くあるにもかかわらず、分類のために開発されたものである。
そこで本研究では,回帰タスクに特化したプロトタイプベースモデルであるExPeRTを提案する。
提案モデルでは,プロトタイプラベルの重み付き平均値を用いて,学習したプロトタイプのラテント空間における距離からサンプル予測を行う。
潜在空間における距離はラベルの違いに相対して正規化され、各プロトタイプはトレーニングセットからサンプルとして可視化することができる。
画像レベルの距離はパッチレベルの距離からさらに構築され、両者のパッチは最適なトランスポートを用いて構造的に一致する。
成人MRIと胎児超音波の2つの画像データセットを用いた脳年齢予測の課題に関するモデルを提案する。
提案手法は,モデル推論プロセスの知見を提供しながら,最先端の予測性能を達成した。
関連論文リスト
- ProtoS-ViT: Visual foundation models for sparse self-explainable classifications [0.6249768559720122]
この研究は、凍結したトレーニング済みのViTバックボーンが、いかに効果的に原型モデルに変換できるかを示す。
ProtoS-ViTは、精度、コンパクト性、説明可能性の点で優れた性能を示す既存のプロトタイプモデルを上回る。
論文 参考訳(メタデータ) (2024-06-14T13:36:30Z) - Causal Estimation of Memorisation Profiles [58.20086589761273]
言語モデルにおける記憶の理解は、実践的および社会的意味を持つ。
覚書化(英: Memorisation)とは、モデルがそのインスタンスを予測できる能力に対して、あるインスタンスでトレーニングを行うことによる因果的影響である。
本稿では,計量学の差分差分設計に基づく,新しい,原理的,効率的な記憶推定法を提案する。
論文 参考訳(メタデータ) (2024-06-06T17:59:09Z) - Enhancing Interpretability of Vertebrae Fracture Grading using Human-interpretable Prototypes [7.633493982907541]
本稿では,脊椎骨折(原型)の関連部分を見つけるための新しい解釈可能な設計手法であるProtoVerseを提案し,そのモデルの決定を人間に理解可能な方法で確実に説明する。
We have been experiment with the VerSe'19 dataset and outformed the existing prototype-based method。
論文 参考訳(メタデータ) (2024-04-03T16:04:59Z) - A Lightweight Generative Model for Interpretable Subject-level Prediction [0.07989135005592125]
本稿では,本質的に解釈可能な単一対象予測手法を提案する。
実験により、結果のモデルを効率よく逆転させ、正確な主観レベルの予測を行うことが示されている。
論文 参考訳(メタデータ) (2023-06-19T18:20:29Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Probabilistic Modeling for Human Mesh Recovery [73.11532990173441]
本稿では,2次元の証拠から3次元の人体復元の問題に焦点を当てた。
我々は,この問題を,入力から3Dポーズの分布へのマッピング学習として再考した。
論文 参考訳(メタデータ) (2021-08-26T17:55:11Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Using StyleGAN for Visual Interpretability of Deep Learning Models on
Medical Images [0.7874708385247352]
画像上の任意のブラックボックスモデルの予測を理解するために使用できる新しい解釈可能性法を提案する。
StyleGANは医療画像に基づいて訓練され、潜伏ベクトルと画像のマッピングを提供する。
この方向に沿って入力画像の潜在表現をシフトさせることにより、予測が変化する一連の新しい合成画像を生成することができる。
論文 参考訳(メタデータ) (2021-01-19T11:13:20Z) - Are Visual Explanations Useful? A Case Study in Model-in-the-Loop
Prediction [49.254162397086006]
画像に基づく年齢予測課題における視覚的満足度に基づく説明について検討する。
モデル予測の提示により,人間の精度が向上することが判明した。
しかし、様々な種類の説明は、人間の正確さやモデルの信頼を著しく変えることができない。
論文 参考訳(メタデータ) (2020-07-23T20:39:40Z) - Concept Bottleneck Models [79.91795150047804]
現在の最先端モデルは、通常「骨の支柱の存在」のような概念の操作をサポートしない。
トレーニング時に提供される概念を最初に予測し、ラベルを予測するためにこれらの概念を使用するという古典的な考え方を再考する。
X線グレーディングと鳥の識別では、概念ボトルネックモデルが標準のエンドツーエンドモデルと競合する精度を達成する。
論文 参考訳(メタデータ) (2020-07-09T07:47:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。