論文の概要: Interpretable Mammographic Image Classification using Cased-Based
Reasoning and Deep Learning
- arxiv url: http://arxiv.org/abs/2107.05605v1
- Date: Mon, 12 Jul 2021 17:42:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-13 16:09:35.876485
- Title: Interpretable Mammographic Image Classification using Cased-Based
Reasoning and Deep Learning
- Title(参考訳): cased-based reasoningとdeep learningを用いた解釈可能なマンモグラフィ画像分類
- Authors: Alina Jade Barnett, Fides Regina Schwartz, Chaofan Tao, Chaofan Chen,
Yinhao Ren, Joseph Y. Lo, Cynthia Rudin
- Abstract要約: マンモグラフィーのケースベース推論を用いた新しい解釈型ニューラルネットワークアルゴリズムを提案する。
我々のネットワークは悪性度予測と、その予測を既知の医学的特徴を用いて説明する。
- 参考スコア(独自算出の注目度): 20.665935997959025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When we deploy machine learning models in high-stakes medical settings, we
must ensure these models make accurate predictions that are consistent with
known medical science. Inherently interpretable networks address this need by
explaining the rationale behind each decision while maintaining equal or higher
accuracy compared to black-box models. In this work, we present a novel
interpretable neural network algorithm that uses case-based reasoning for
mammography. Designed to aid a radiologist in their decisions, our network
presents both a prediction of malignancy and an explanation of that prediction
using known medical features. In order to yield helpful explanations, the
network is designed to mimic the reasoning processes of a radiologist: our
network first detects the clinically relevant semantic features of each image
by comparing each new image with a learned set of prototypical image parts from
the training images, then uses those clinical features to predict malignancy.
Compared to other methods, our model detects clinical features (mass margins)
with equal or higher accuracy, provides a more detailed explanation of its
prediction, and is better able to differentiate the classification-relevant
parts of the image.
- Abstract(参考訳): 機械学習モデルを高精細な医療環境にデプロイする場合、これらのモデルが既知の医学と整合した正確な予測をする必要がある。
本質的に解釈可能なネットワークは、ブラックボックスモデルと同等または高い精度を維持しながら、各決定の背後にある根拠を説明することによって、このニーズに対処する。
本稿では,マンモグラフィにケースベース推論を用いた新しい解釈可能なニューラルネットワークアルゴリズムを提案する。
放射線科医の判断を助けるために設計されたこのネットワークは、悪性度の予測と、既知の医療的特徴を用いた予測の説明の両方を提示する。
我々のネットワークは、まず、新しい画像とトレーニング画像から学習した原型画像の集合を比較して、各画像の臨床的に関係のある意味的特徴を検出し、その臨床特徴を用いて悪性度を予測する。
他の手法と比較して,本モデルは臨床像(マスマージン)を同等以上の精度で検出し,その予測をより詳細に説明し,画像の分類関連部分を識別しやすくする。
関連論文リスト
- Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Pixel-Level Explanation of Multiple Instance Learning Models in
Biomedical Single Cell Images [52.527733226555206]
複数のインスタンス学習モデルを説明するための4つの属性法について検討する。
急性骨髄性白血病の2つのデータセットと100万以上の単細胞画像について検討した。
我々は、属性マップと医療専門家の注釈を比較し、モデルの意思決定が人間の基準とどのように異なるかを確認する。
論文 参考訳(メタデータ) (2023-03-15T14:00:11Z) - Development of an algorithm for medical image segmentation of bone
tissue in interaction with metallic implants [58.720142291102135]
本研究では,金属インプラントとの接触部における骨成長の計算アルゴリズムを開発した。
骨とインプラント組織はトレーニングデータセットに手動でセグメンテーションされた。
ネットワーク精度の面では、モデルは約98%に達した。
論文 参考訳(メタデータ) (2022-04-22T08:17:20Z) - Explainable Ensemble Machine Learning for Breast Cancer Diagnosis based
on Ultrasound Image Texture Features [4.511923587827301]
超音波画像を用いた乳がん診断のための説明可能な機械学習パイプラインを提案する。
この結果から,提案するフレームワークは説明可能でありながら高い予測性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-01-17T22:13:03Z) - BI-RADS-Net: An Explainable Multitask Learning Approach for Cancer
Diagnosis in Breast Ultrasound Images [69.41441138140895]
本稿では,乳房超音波画像における癌検出のための新しい深層学習手法であるBI-RADS-Netを紹介する。
提案手法は, 臨床診断に関連する特徴表現を学習することにより, 乳腺腫瘍の説明と分類を行うタスクを取り入れたものである。
臨床医が医療現場で診断・報告するために使用する形態学的特徴の観点から予測(良性または悪性)の説明が提供される。
論文 参考訳(メタデータ) (2021-10-05T19:14:46Z) - IAIA-BL: A Case-based Interpretable Deep Learning Model for
Classification of Mass Lesions in Digital Mammography [20.665935997959025]
機械学習モデルの解釈性は、高リスク決定において重要である。
機械学習に基づくマンモグラフィを解釈可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-23T05:00:21Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Using StyleGAN for Visual Interpretability of Deep Learning Models on
Medical Images [0.7874708385247352]
画像上の任意のブラックボックスモデルの予測を理解するために使用できる新しい解釈可能性法を提案する。
StyleGANは医療画像に基づいて訓練され、潜伏ベクトルと画像のマッピングを提供する。
この方向に沿って入力画像の潜在表現をシフトさせることにより、予測が変化する一連の新しい合成画像を生成することができる。
論文 参考訳(メタデータ) (2021-01-19T11:13:20Z) - Domain Generalization for Medical Imaging Classification with
Linear-Dependency Regularization [59.5104563755095]
本稿では,医用画像分類分野におけるディープニューラルネットワークの一般化能力向上のための,シンプルだが効果的なアプローチを提案する。
医用画像の領域変数がある程度コンパクトであることに感銘を受けて,変分符号化による代表的特徴空間の学習を提案する。
論文 参考訳(メタデータ) (2020-09-27T12:30:30Z) - Improving Calibration and Out-of-Distribution Detection in Medical Image
Segmentation with Convolutional Neural Networks [8.219843232619551]
畳み込みニューラルネットワーク(CNN)は強力な医用画像分割モデルであることが示されている。
マルチタスク学習、すなわち、複数の異なるデータセット上で単一のモデルをトレーニングすることを提唱する。
一つのCNNが、文脈を自動的に認識し、各文脈における関心の組織を正確に区分することを学ぶだけでなく、そのようなジョイントモデルの方が、より正確でより良い校正された予測を持つことも示している。
論文 参考訳(メタデータ) (2020-04-12T23:42:51Z) - An Investigation of Interpretability Techniques for Deep Learning in
Predictive Process Analytics [2.162419921663162]
本稿では、深層ニューラルネットワークとランダムフォレストという、医学的意思決定文学において最も成功した学習アルゴリズムの2つの解釈可能性手法について検討する。
我々は,患者のがんの種類を予測するためのモデルを学ぶ。
がんのタイプに関する有用な洞察を提供する予測に使用される特定の特徴と、十分に一般化されていない特徴が見られます。
論文 参考訳(メタデータ) (2020-02-21T09:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。