論文の概要: MCUa: Multi-level Context and Uncertainty aware Dynamic Deep Ensemble
for Breast Cancer Histology Image Classification
- arxiv url: http://arxiv.org/abs/2108.10709v1
- Date: Tue, 24 Aug 2021 13:18:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 16:47:41.824982
- Title: MCUa: Multi-level Context and Uncertainty aware Dynamic Deep Ensemble
for Breast Cancer Histology Image Classification
- Title(参考訳): MCUa:乳がん組織像分類のためのマルチレベルコンテキストとダイナミックディープアンサンブル
- Authors: Zakaria Senousy, Mohammed M. Abdelsamea, Mohamed Medhat Gaber, Moloud
Abdar, U Rajendra Acharya, Abbas Khosravi, and Saeid Nahavandi
- Abstract要約: 我々は,MCUa(Multi-level Context and Uncertainty aware)動的深層学習アンサンブルモデルという新しいCNNを提案する。
MCUamodelは、乳がん組織像データセットで98.11%の精度を達成した。
- 参考スコア(独自算出の注目度): 18.833782238355386
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Breast histology image classification is a crucial step in the early
diagnosis of breast cancer. In breast pathological diagnosis, Convolutional
Neural Networks (CNNs) have demonstrated great success using digitized
histology slides. However, tissue classification is still challenging due to
the high visual variability of the large-sized digitized samples and the lack
of contextual information. In this paper, we propose a novel CNN, called
Multi-level Context and Uncertainty aware (MCUa) dynamic deep learning ensemble
model.MCUamodel consists of several multi-level context-aware models to learn
the spatial dependency between image patches in a layer-wise fashion. It
exploits the high sensitivity to the multi-level contextual information using
an uncertainty quantification component to accomplish a novel dynamic ensemble
model.MCUamodelhas achieved a high accuracy of 98.11% on a breast cancer
histology image dataset. Experimental results show the superior effectiveness
of the proposed solution compared to the state-of-the-art histology
classification models.
- Abstract(参考訳): 乳腺組織像の分類は乳がんの早期診断において重要なステップである。
乳腺病理診断では,CNN (Convolutional Neural Networks) がDigitalized histology slidesを用いて大きな成功を収めた。
しかし, 大規模デジタル化標本の高視認性と文脈情報の欠如により, 組織分類は依然として困難である。
本稿では,マルチレベルコンテキストと不確実性認識(mcua)動的ディープラーニングアンサンブルモデルと呼ばれる新しいcnnを提案する。mcuaモデルは複数のマルチレベルコンテキスト認識モデルからなり,画像パッチ間の空間依存性を階層的に学習する。
MCUamodelhasは、不確実な定量化成分を用いて、マルチレベルの文脈情報に対する高感度を利用して、新しいダイナミックアンサンブルモデルを実現し、乳がん組織像データセットで98.11%の精度を達成した。
実験の結果, 最先端の組織分類モデルと比較して, 提案法の有効性が高かった。
関連論文リスト
- CC-DCNet: Dynamic Convolutional Neural Network with Contrastive Constraints for Identifying Lung Cancer Subtypes on Multi-modality Images [13.655407979403945]
肺がんサブタイプを多次元・多モード画像で正確に分類するための新しい深層学習ネットワークを提案する。
提案モデルの強みは, 対のCT-病理画像セットと独立のCT画像セットの両方を動的に処理できることにある。
また,ネットワーク学習を通じてモダリティ関係を定量的にマッピングするコントラスト制約モジュールも開発した。
論文 参考訳(メタデータ) (2024-07-18T01:42:00Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - NASDM: Nuclei-Aware Semantic Histopathology Image Generation Using
Diffusion Models [3.2996723916635267]
第一種核認識意味組織生成フレームワーク(NASDM)
NASDMは、最大6種類の核型のセマンティック・インスタンス・マスクを与えられた現実的な組織サンプルを合成することができる。
これらの合成画像は、病理学、モデルの検証、既存の核セグメンテーションデータセットの補充に有用である。
論文 参考訳(メタデータ) (2023-03-20T22:16:03Z) - Application of Transfer Learning and Ensemble Learning in Image-level
Classification for Breast Histopathology [9.037868656840736]
CAD(Computer-Aided Diagnosis)では、従来の分類モデルでは、主に1つのネットワークを使って特徴を抽出する。
本稿では良性病変と悪性病変のバイナリ分類のための画像レベルラベルに基づく深層アンサンブルモデルを提案する。
結果: アンサンブルネットワークモデルにおいて、画像レベルのバイナリ分類は9,8.90%の精度を達成する。
論文 参考訳(メタデータ) (2022-04-18T13:31:53Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Medulloblastoma Tumor Classification using Deep Transfer Learning with
Multi-Scale EfficientNets [63.62764375279861]
本稿では,エンド・ツー・エンドのMB腫瘍分類を提案し,様々な入力サイズとネットワーク次元の一致した移動学習を提案する。
161ケースのデータセットを用いて、より大規模な入力解像度を持つ事前学習されたEfficientNetが、大幅な性能改善をもたらすことを実証した。
論文 参考訳(メタデータ) (2021-09-10T13:07:11Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Dual Convolutional Neural Networks for Breast Mass Segmentation and
Diagnosis in Mammography [18.979126709943085]
本稿では,マンモグラム画像処理のための新しいディープラーニングフレームワークを提案する。
本手法はデュアルパスアーキテクチャで構築され,そのマッピングをデュアルプロブレム方式で解決する。
実験の結果,DualCoreNetはマンモグラフィーのセグメンテーションと分類を同時に達成し,最近の最先端モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-08-07T02:23:36Z) - Breast Cancer Histopathology Image Classification and Localization using
Multiple Instance Learning [2.4178424543973267]
診断のための顕微鏡組織像を解析するためのコンピュータ支援病理学は、診断のコストと遅延をもたらす可能性がある。
病理学における深層学習は、分類とローカライゼーションのタスクにおいて最先端のパフォーマンスを達成した過去10年間に注目されている。
本稿では,BreakHISとBACHの2つのデータセットの分類とローカライゼーション結果について述べる。
論文 参考訳(メタデータ) (2020-02-16T10:29:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。