論文の概要: Learning a Clinically-Relevant Concept Bottleneck for Lesion Detection in Breast Ultrasound
- arxiv url: http://arxiv.org/abs/2407.00267v1
- Date: Sat, 29 Jun 2024 00:44:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 05:41:03.372292
- Title: Learning a Clinically-Relevant Concept Bottleneck for Lesion Detection in Breast Ultrasound
- Title(参考訳): 乳房超音波における病変検出のための臨床関連概念ボトルネックの学習
- Authors: Arianna Bunnell, Yannik Glaser, Dustin Valdez, Thomas Wolfgruber, Aleen Altamirano, Carol Zamora González, Brenda Y. Hernandez, Peter Sadowski, John A. Shepherd,
- Abstract要約: 本稿では,米国放射線学大学乳房画像・報告データシステム(BI-RADS)の標準語彙を用いた解釈可能な予測を提供する説明可能なAIモデルを提案する。
このモデルは、BI-RADSの既知の特徴が最終的ながん分類の前に予測される概念ボトルネック層を特徴とするディープニューラルネットワークである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detecting and classifying lesions in breast ultrasound images is a promising application of artificial intelligence (AI) for reducing the burden of cancer in regions with limited access to mammography. Such AI systems are more likely to be useful in a clinical setting if their predictions can be explained to a radiologist. This work proposes an explainable AI model that provides interpretable predictions using a standard lexicon from the American College of Radiology's Breast Imaging and Reporting Data System (BI-RADS). The model is a deep neural network featuring a concept bottleneck layer in which known BI-RADS features are predicted before making a final cancer classification. This enables radiologists to easily review the predictions of the AI system and potentially fix errors in real time by modifying the concept predictions. In experiments, a model is developed on 8,854 images from 994 women with expert annotations and histological cancer labels. The model outperforms state-of-the-art lesion detection frameworks with 48.9 average precision on the held-out testing set, and for cancer classification, concept intervention is shown to increase performance from 0.876 to 0.885 area under the receiver operating characteristic curve. Training and evaluation code is available at https://github.com/hawaii-ai/bus-cbm.
- Abstract(参考訳): 乳房超音波画像における病変の検出と分類は,マンモグラフィに限られた領域におけるがんの負担を軽減する人工知能(AI)の有望な応用である。
このようなAIシステムは、放射線学者に予測を説明できる場合、臨床環境で有用である可能性が高い。
本研究は,米国放射線学会のBreast Imaging and Reporting Data System (BI-RADS) の標準語彙を用いて解釈可能な予測を提供する,説明可能なAIモデルを提案する。
このモデルは、BI-RADSの既知の特徴が最終的ながん分類の前に予測される概念ボトルネック層を特徴とするディープニューラルネットワークである。
これにより、放射線学者はAIシステムの予測を簡単にレビューでき、概念予測を変更することで、エラーをリアルタイムで修正することができる。
実験では、専門家アノテーションと組織学的癌ラベルを持つ994人の女性の8,854枚の画像に基づいてモデルを構築した。
このモデルは保持試験セットに対して48.9の平均精度で最先端の病変検出フレームワークより優れており、がん分類においては、概念的介入はレシーバ操作特性曲線の下で0.876から0.885領域に向上することが示されている。
トレーニングと評価のコードはhttps://github.com/hawaii-ai/bus-cbm.comで公開されている。
関連論文リスト
- Multi-Label Classification of Thoracic Diseases using Dense Convolutional Network on Chest Radiographs [0.0]
そこで本研究では,1回の検査で複数の病態を検出できる多ラベル疾患予測モデルを提案する。
提案モデルでは,AUCスコアが0.896であった。
論文 参考訳(メタデータ) (2022-02-08T00:43:57Z) - Interpretability methods of machine learning algorithms with
applications in breast cancer diagnosis [1.1470070927586016]
我々は,グローバルサロゲート(GS)法,個人期待(ICE)プロット,条件シェープ値(SV)などの解釈可能性技術を用いた。
乳がん診断における最良の成績は,提案したERN(精度96.6%,ROC曲線0.96)により得られた。
論文 参考訳(メタデータ) (2022-02-04T13:41:30Z) - StRegA: Unsupervised Anomaly Detection in Brain MRIs using a Compact
Context-encoding Variational Autoencoder [48.2010192865749]
教師なし異常検出(UAD)は、健康な被験者の異常なデータセットからデータ分布を学習し、分布サンプルの抽出に応用することができる。
本研究では,コンテクストエンコーディング(context-encoding)VAE(ceVAE)モデルのコンパクトバージョンと,前処理と後処理のステップを組み合わせて,UADパイプライン(StRegA)を作成することを提案する。
提案したパイプラインは、BraTSデータセットのT2w画像と0.859$pm$0.112の腫瘍を検出しながら、Diceスコアが0.642$pm$0.101に達した。
論文 参考訳(メタデータ) (2022-01-31T14:27:35Z) - Explainable Ensemble Machine Learning for Breast Cancer Diagnosis based
on Ultrasound Image Texture Features [4.511923587827301]
超音波画像を用いた乳がん診断のための説明可能な機械学習パイプラインを提案する。
この結果から,提案するフレームワークは説明可能でありながら高い予測性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-01-17T22:13:03Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - BI-RADS-Net: An Explainable Multitask Learning Approach for Cancer
Diagnosis in Breast Ultrasound Images [69.41441138140895]
本稿では,乳房超音波画像における癌検出のための新しい深層学習手法であるBI-RADS-Netを紹介する。
提案手法は, 臨床診断に関連する特徴表現を学習することにより, 乳腺腫瘍の説明と分類を行うタスクを取り入れたものである。
臨床医が医療現場で診断・報告するために使用する形態学的特徴の観点から予測(良性または悪性)の説明が提供される。
論文 参考訳(メタデータ) (2021-10-05T19:14:46Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - In-Line Image Transformations for Imbalanced, Multiclass Computer Vision
Classification of Lung Chest X-Rays [91.3755431537592]
本研究は、COVID-19 LCXRデータ不足のバランスをとるために画像変換を適用するために、文献の体系を活用することを目的としている。
convolutional neural networks(cnns)のようなディープラーニング技術は、健康状態と疾患状態を区別する特徴を選択することができる。
本研究は,CNNアーキテクチャを用いて高速多クラスLCXR分類を94%精度で行う。
論文 参考訳(メタデータ) (2021-04-06T02:01:43Z) - Explaining COVID-19 and Thoracic Pathology Model Predictions by
Identifying Informative Input Features [47.45835732009979]
ニューラルネットワークは胸部X線上の分類および回帰タスクにおいて顕著な性能を示した。
特徴帰属法は、出力予測における入力特徴の重要性を識別する。
本研究では,NIH Chest X-ray8およびBrixIAデータセット上で,人間中心の解釈可能性指標と人間に依存しない特徴重要度指標の両方を用いて評価する。
論文 参考訳(メタデータ) (2021-04-01T11:42:39Z) - An interpretable classifier for high-resolution breast cancer screening
images utilizing weakly supervised localization [45.00998416720726]
医用画像の特徴に対処する枠組みを提案する。
このモデルはまず、画像全体の低容量だがメモリ効率のよいネットワークを使用して、最も情報性の高い領域を識別する。
次に、選択したリージョンから詳細を収集するために、別の高容量ネットワークを適用します。
最後に、グローバルおよびローカル情報を集約して最終的な予測を行うフュージョンモジュールを使用する。
論文 参考訳(メタデータ) (2020-02-13T15:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。