論文の概要: IAIA-BL: A Case-based Interpretable Deep Learning Model for
Classification of Mass Lesions in Digital Mammography
- arxiv url: http://arxiv.org/abs/2103.12308v1
- Date: Tue, 23 Mar 2021 05:00:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 14:12:58.400964
- Title: IAIA-BL: A Case-based Interpretable Deep Learning Model for
Classification of Mass Lesions in Digital Mammography
- Title(参考訳): IAIA-BL:デジタルマンモグラフィにおける大量病変分類のためのケースベース解釈型深層学習モデル
- Authors: Alina Jade Barnett, Fides Regina Schwartz, Chaofan Tao, Chaofan Chen,
Yinhao Ren, Joseph Y. Lo and Cynthia Rudin
- Abstract要約: 機械学習モデルの解釈性は、高リスク決定において重要である。
機械学習に基づくマンモグラフィを解釈可能なフレームワークを提案する。
- 参考スコア(独自算出の注目度): 20.665935997959025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpretability in machine learning models is important in high-stakes
decisions, such as whether to order a biopsy based on a mammographic exam.
Mammography poses important challenges that are not present in other computer
vision tasks: datasets are small, confounding information is present, and it
can be difficult even for a radiologist to decide between watchful waiting and
biopsy based on a mammogram alone. In this work, we present a framework for
interpretable machine learning-based mammography. In addition to predicting
whether a lesion is malignant or benign, our work aims to follow the reasoning
processes of radiologists in detecting clinically relevant semantic features of
each image, such as the characteristics of the mass margins. The framework
includes a novel interpretable neural network algorithm that uses case-based
reasoning for mammography. Our algorithm can incorporate a combination of data
with whole image labelling and data with pixel-wise annotations, leading to
better accuracy and interpretability even with a small number of images. Our
interpretable models are able to highlight the classification-relevant parts of
the image, whereas other methods highlight healthy tissue and confounding
information. Our models are decision aids, rather than decision makers, aimed
at better overall human-machine collaboration. We do not observe a loss in mass
margin classification accuracy over a black box neural network trained on the
same data.
- Abstract(参考訳): 機械学習モデルの解釈性は、マンモグラフィ検査に基づいて生検を注文するかどうかなど、ハイステイクの決定において重要である。
マンモグラフィは、他のコンピュータビジョンタスクには存在しない重要な課題を提起する: データセットは小さく、情報が共有されており、放射線科医がマンモグラムのみに基づいて、注意深い待機と生検のどちらを選ぶかを決めることは困難である。
本稿では,機械学習に基づくマンモグラフィのためのフレームワークを提案する。
病変が悪性か良性かの予測に加えて,各画像の臨床的意味的特徴(質量マージンの特徴など)を検出するための放射線科医の推論プロセスにも追従することを目的としている。
このフレームワークは、マンモグラフィーにケースベースの推論を使用する、新しい解釈可能なニューラルネットワークアルゴリズムを含んでいる。
本アルゴリズムは,画像のラベル付きデータと画素別アノテーション付きデータの組み合わせを組み込むことで,少ない画像でも精度と解釈性が向上する。
我々の解釈可能なモデルは画像の分類関連部分を強調することができるが、他の方法では健全な組織と結合した情報を強調する。
私たちのモデルは、意思決定者ではなく、人間と機械のコラボレーションをより良くするための意思決定支援です。
同じデータに基づいてトレーニングされたブラックボックスニューラルネットワークでは,マスマージン分類精度の低下は観測できない。
関連論文リスト
- FPN-IAIA-BL: A Multi-Scale Interpretable Deep Learning Model for Classification of Mass Margins in Digital Mammography [17.788748860485438]
解釈不能なディープラーニングモデルは、高度な環境には適さない。
コンピュータビジョンの解釈における最近の研究は、かつてのブラックボックスに対して透明性を提供する。
本稿では,マンモグラフィマスマージン分類のための多段階解釈型深層学習モデルを提案する。
論文 参考訳(メタデータ) (2024-06-10T15:44:41Z) - Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - Exploiting Causality Signals in Medical Images: A Pilot Study with
Empirical Results [1.2400966570867322]
本稿では,ニューラルネットワークによる分類目的の画像から弱い因果信号を発見し,利用するための新しい手法を提案する。
このようにして、画像の1つの部分における特徴の存在が、画像の別の部分における他の特徴の出現にどのように影響するかをモデル化する。
提案手法は,畳み込みニューラルネットワークのバックボーンと因果係数抽出モジュールから構成される。
論文 参考訳(メタデータ) (2023-09-19T08:00:26Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Pixel-Level Explanation of Multiple Instance Learning Models in
Biomedical Single Cell Images [52.527733226555206]
複数のインスタンス学習モデルを説明するための4つの属性法について検討する。
急性骨髄性白血病の2つのデータセットと100万以上の単細胞画像について検討した。
我々は、属性マップと医療専門家の注釈を比較し、モデルの意思決定が人間の基準とどのように異なるかを確認する。
論文 参考訳(メタデータ) (2023-03-15T14:00:11Z) - Application of Transfer Learning and Ensemble Learning in Image-level
Classification for Breast Histopathology [9.037868656840736]
CAD(Computer-Aided Diagnosis)では、従来の分類モデルでは、主に1つのネットワークを使って特徴を抽出する。
本稿では良性病変と悪性病変のバイナリ分類のための画像レベルラベルに基づく深層アンサンブルモデルを提案する。
結果: アンサンブルネットワークモデルにおいて、画像レベルのバイナリ分類は9,8.90%の精度を達成する。
論文 参考訳(メタデータ) (2022-04-18T13:31:53Z) - Interpretable Mammographic Image Classification using Cased-Based
Reasoning and Deep Learning [20.665935997959025]
マンモグラフィーのケースベース推論を用いた新しい解釈型ニューラルネットワークアルゴリズムを提案する。
我々のネットワークは悪性度予測と、その予測を既知の医学的特徴を用いて説明する。
論文 参考訳(メタデータ) (2021-07-12T17:42:09Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z) - Medical Image Harmonization Using Deep Learning Based Canonical Mapping:
Toward Robust and Generalizable Learning in Imaging [4.396671464565882]
多様な取得条件のデータを共通参照領域に"調和"する新しいパラダイムを提案する。
我々は,MRIによる脳年齢予測と統合失調症の分類という,2つの問題に対して本手法を検証した。
論文 参考訳(メタデータ) (2020-10-11T22:01:37Z) - Multi-label Thoracic Disease Image Classification with Cross-Attention
Networks [65.37531731899837]
胸部X線画像から胸部疾患を自動分類するためのCAN(Cross-Attention Networks)を提案する。
また,クロスエントロピー損失を超える新たな損失関数を設計し,クラス間の不均衡を克服する。
論文 参考訳(メタデータ) (2020-07-21T14:37:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。