論文の概要: Hierarchical Deep Convolutional Neural Networks for Multi-category
Diagnosis of Gastrointestinal Disorders on Histopathological Images
- arxiv url: http://arxiv.org/abs/2005.03868v2
- Date: Fri, 7 Aug 2020 01:28:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 12:06:29.351656
- Title: Hierarchical Deep Convolutional Neural Networks for Multi-category
Diagnosis of Gastrointestinal Disorders on Histopathological Images
- Title(参考訳): 階層型深部畳み込みニューラルネットワークを用いた胃腸疾患の病理組織像診断
- Authors: Rasoul Sali, Sodiq Adewole, Lubaina Ehsan, Lee A. Denson, Paul Kelly,
Beatrice C. Amadi, Lori Holtz, Syed Asad Ali, Sean R. Moore, Sana Syed,
Donald E. Brown
- Abstract要約: 本稿では,GI領域の異なる部位の生検画像の階層的分類と,その内における受容疾患について述べる。
提案手法は,373枚のスライド画像から独立した画像パッチを用いて評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep convolutional neural networks(CNNs) have been successful for a wide
range of computer vision tasks, including image classification. A specific area
of the application lies in digital pathology for pattern recognition in the
tissue-based diagnosis of gastrointestinal(GI) diseases. This domain can
utilize CNNs to translate histopathological images into precise diagnostics.
This is challenging since these complex biopsies are heterogeneous and require
multiple levels of assessment. This is mainly due to structural similarities in
different parts of the GI tract and shared features among different gut
diseases. Addressing this problem with a flat model that assumes all classes
(parts of the gut and their diseases) are equally difficult to distinguish
leads to an inadequate assessment of each class. Since the hierarchical model
restricts classification error to each sub-class, it leads to a more
informative model than a flat model. In this paper, we propose to apply the
hierarchical classification of biopsy images from different parts of the GI
tract and the receptive diseases within each. We embedded a class hierarchy
into the plain VGGNet to take advantage of its layers' hierarchical structure.
The proposed model was evaluated using an independent set of image patches from
373 whole slide images. The results indicate that the hierarchical model can
achieve better results than the flat model for multi-category diagnosis of GI
disorders using histopathological images.
- Abstract(参考訳): 深層畳み込みニューラルネットワーク(CNN)は、画像分類を含む幅広いコンピュータビジョンタスクで成功している。
この応用の特定の領域は、消化管疾患(GI)の組織診断におけるパターン認識のためのデジタル病理である。
このドメインはcnnを使用して病理像を正確な診断に翻訳することができる。
これらの複雑な生検は異質であり、複数のレベルの評価を必要とするため、これは難しい。
これは主に、GI管の異なる部分における構造的類似性と、異なる腸疾患間の共通性に起因する。
この問題を、すべてのクラス(腸の一部とその病気)を想定したフラットモデルで解決することは、各クラスを不適切な評価に導くのに等しく困難である。
階層モデルは分類誤差を各サブクラスに制限するため、フラットモデルよりもより情報的なモデルにつながる。
本稿では, 消化管の異なる部位からの生検画像の階層的分類と, それぞれの領域における受容性疾患について検討する。
階層構造を利用するために、クラス階層をプレーンなVGGNetに組み込んだ。
提案モデルは,373枚のスライド画像から独立した画像パッチを用いて評価した。
その結果,階層モデルは,病理組織像を用いてGI疾患の多カテゴリ診断のためのフラットモデルよりも良好な結果が得られることが示唆された。
関連論文リスト
- Diagnostic Text-guided Representation Learning in Hierarchical Classification for Pathological Whole Slide Image [9.195096835877914]
階層的病理画像分類の概念を導入し、PathTreeと呼ばれる表現学習を提案する。
PathTreeは、病気の多重分類を二分木構造とみなしている。
提案したPathTreeは,最先端の手法と比較して一貫して競合する。
論文 参考訳(メタデータ) (2024-11-16T05:35:39Z) - FMDNN: A Fuzzy-guided Multi-granular Deep Neural Network for Histopathological Image Classification [40.94024666952439]
ファジィ誘導多粒性ディープニューラルネットワーク(FMDNN)を提案する。
病理学者の多粒性診断アプローチに触発され, 粗さ, 培地, 微粒度における細胞構造の特徴抽出を行った。
ファジィ誘導型クロスアテンションモジュールは、普遍的なファジィ特徴を多粒性特徴へ導く。
論文 参考訳(メタデータ) (2024-07-22T00:46:15Z) - GPC: Generative and General Pathology Image Classifier [2.6954348706500766]
本稿では,GPCと呼ばれるタスク依存型画像分類器を提案する。
GPCは、病理画像を高次元の特徴空間にマッピングし、テキストとして関連するクラスラベルを生成する。
我々は,4つの病理画像分類タスクに対して,GPCを6つのデータセットで評価した。
論文 参考訳(メタデータ) (2024-07-12T06:54:31Z) - Pixel-Level Explanation of Multiple Instance Learning Models in
Biomedical Single Cell Images [52.527733226555206]
複数のインスタンス学習モデルを説明するための4つの属性法について検討する。
急性骨髄性白血病の2つのデータセットと100万以上の単細胞画像について検討した。
我々は、属性マップと医療専門家の注釈を比較し、モデルの意思決定が人間の基準とどのように異なるかを確認する。
論文 参考訳(メタデータ) (2023-03-15T14:00:11Z) - Automatic Semantic Segmentation of the Lumbar Spine. Clinical
Applicability in a Multi-parametric and Multi-centre MRI study [0.0]
この文書は、最も正確なセグメンテーションを得たニューラルネットワークの設計結果について記述し、分析する。
提案するいくつかの設計は、ベースラインとして使用される標準のU-Netよりも優れており、特に複数のニューラルネットワークの出力が異なる戦略に従って結合されるアンサンブルで使用される場合である。
論文 参考訳(メタデータ) (2021-11-16T17:33:05Z) - Medulloblastoma Tumor Classification using Deep Transfer Learning with
Multi-Scale EfficientNets [63.62764375279861]
本稿では,エンド・ツー・エンドのMB腫瘍分類を提案し,様々な入力サイズとネットワーク次元の一致した移動学習を提案する。
161ケースのデータセットを用いて、より大規模な入力解像度を持つ事前学習されたEfficientNetが、大幅な性能改善をもたらすことを実証した。
論文 参考訳(メタデータ) (2021-09-10T13:07:11Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - C-Net: A Reliable Convolutional Neural Network for Biomedical Image
Classification [6.85316573653194]
生体医用画像の分類を行うために,C-Netと呼ばれる複数のネットワークの結合からなる新しい畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
C-Netモデルは、両方のデータセットの個々のメトリクスにおける他のモデルよりも優れており、誤分類はゼロである。
論文 参考訳(メタデータ) (2020-10-30T20:03:20Z) - Multi-label Thoracic Disease Image Classification with Cross-Attention
Networks [65.37531731899837]
胸部X線画像から胸部疾患を自動分類するためのCAN(Cross-Attention Networks)を提案する。
また,クロスエントロピー損失を超える新たな損失関数を設計し,クラス間の不均衡を克服する。
論文 参考訳(メタデータ) (2020-07-21T14:37:00Z) - Weakly supervised multiple instance learning histopathological tumor
segmentation [51.085268272912415]
スライド画像全体のセグメント化のための弱教師付きフレームワークを提案する。
トレーニングモデルに複数のインスタンス学習スキームを利用する。
提案するフレームワークは,The Cancer Genome AtlasとPatchCamelyonデータセットのマルチロケーションとマルチ中心公開データに基づいて評価されている。
論文 参考訳(メタデータ) (2020-04-10T13:12:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。