論文の概要: Ink Marker Segmentation in Histopathology Images Using Deep Learning
- arxiv url: http://arxiv.org/abs/2010.15865v1
- Date: Thu, 29 Oct 2020 18:09:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 23:37:04.038808
- Title: Ink Marker Segmentation in Histopathology Images Using Deep Learning
- Title(参考訳): 深層学習を用いた病理画像のインクマーカーセグメンテーション
- Authors: Danial Maleki, Mehdi Afshari, Morteza Babaie, H.R. Tizhoosh
- Abstract要約: 本稿では, 深層ネットワークを通じて, 病的パッチのインクマーク領域を分割することを提案する。
スライド画像全体の79ドルのデータセットと4,305ドルのパッチが作成され、さまざまなネットワークがトレーニングされた。
その結果、EffiecentNet-B3をベースとしたFPNモデルは、F1スコア94.53%の優れた構成であることが判明した。
- 参考スコア(独自算出の注目度): 1.0118241139691948
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the recent advancements in machine vision, digital pathology has
gained significant attention. Histopathology images are distinctly rich in
visual information. The tissue glass slide images are utilized for disease
diagnosis. Researchers study many methods to process histopathology images and
facilitate fast and reliable diagnosis; therefore, the availability of
high-quality slides becomes paramount. The quality of the images can be
negatively affected when the glass slides are ink-marked by pathologists to
delineate regions of interest. As an example, in one of the largest public
histopathology datasets, The Cancer Genome Atlas (TCGA), approximately $12\%$
of the digitized slides are affected by manual delineations through ink
markings. To process these open-access slide images and other repositories for
the design and validation of new methods, an algorithm to detect the marked
regions of the images is essential to avoid confusing tissue pixels with
ink-colored pixels for computer methods. In this study, we propose to segment
the ink-marked areas of pathology patches through a deep network. A dataset
from $79$ whole slide images with $4,305$ patches was created and different
networks were trained. Finally, the results showed an FPN model with the
EffiecentNet-B3 as the backbone was found to be the superior configuration with
an F1 score of $94.53\%$.
- Abstract(参考訳): 近年の機械ビジョンの進歩により、デジタル病理学は注目されている。
病理像は明らかに視覚情報に富んでいる。
組織ガラススライド画像は疾患診断に利用される。
研究者は、病理組織像を処理する多くの方法を研究し、迅速かつ信頼性の高い診断を容易にする。
画像の品質は、病理学者が興味のある領域を描写するために、ガラススライドがインクマークされているときに負の影響を受ける可能性がある。
例えば、最も大きな病理組織学データセットであるThe Cancer Genome Atlas (TCGA)では、デジタル化されたスライドの約12.%がインクマーキングによる手動の指示に影響を受けている。
新しい手法の設計と検証のためにこれらのオープンアクセススライド画像やその他のレポジトリを処理するためには, 組織画素とインク色画素との混同を避けるために, 画像のマーク領域を検出するアルゴリズムが不可欠である。
本研究では,病変パッチのインクマーク領域をディープネットワークで分割する手法を提案する。
79ドルのスライド画像と4,305ドルのパッチのデータセットが作成され、異なるネットワークがトレーニングされた。
最後に、EffiecentNet-B3を用いたFPNモデルで、バックボーンはF1スコアが94.53\%$の優れた構成であることが判明した。
関連論文リスト
- Cross-modulated Few-shot Image Generation for Colorectal Tissue
Classification [58.147396879490124]
XM-GANと名づけられた少数ショット生成法は,1塩基と1対の参照組織像を入力とし,高品質で多様な画像を生成する。
我々の知る限りでは、大腸組織像の少数ショット生成を最初に調査した人物である。
論文 参考訳(メタデータ) (2023-04-04T17:50:30Z) - Voice-assisted Image Labelling for Endoscopic Ultrasound Classification
using Neural Networks [48.732863591145964]
本稿では,臨床医が提示した生音声からのEUS画像にラベルを付けるマルチモーダル畳み込みニューラルネットワークアーキテクチャを提案する。
その結果,5つのラベルを持つデータセットにおいて,画像レベルでの予測精度は76%であった。
論文 参考訳(メタデータ) (2021-10-12T21:22:24Z) - Assessing glaucoma in retinal fundus photographs using Deep Feature
Consistent Variational Autoencoders [63.391402501241195]
緑内障は症状が重くなるまで無症状のままでいるため、検出が困難である。
緑内障の早期診断は機能的,構造的,臨床的評価に基づいて行われることが多い。
ディープラーニング手法はこのジレンマを、マーカー識別段階をバイパスし、ハイレベルな情報を分析してデータを分類することで部分的に解決している。
論文 参考訳(メタデータ) (2021-10-04T16:06:49Z) - Fast whole-slide cartography in colon cancer histology using superpixels
and CNN classification [0.22312377591335414]
通常、全体スライディングイメージは小さなパッチに分割され、機械学習ベースのアプローチを使用して個別に分析される。
本稿では,画像の分類に先立って,視覚的に類似した画像画素をより大きなセグメント,すなわちスーパーピクセルに分類することで,画像をコヒーレントな領域に分割することを提案する。
このアルゴリズムは手書きの大腸切除画像159枚のデータセットを用いて開発・検証され,その性能は標準的なパッチベースアプローチと比較されている。
論文 参考訳(メタデータ) (2021-06-30T08:34:06Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Gigapixel Histopathological Image Analysis using Attention-based Neural
Networks [7.1715252990097325]
圧縮経路と学習経路からなるCNN構造を提案する。
本手法は,グローバル情報とローカル情報の両方を統合し,入力画像のサイズに関して柔軟であり,弱い画像レベルラベルのみを必要とする。
論文 参考訳(メタデータ) (2021-01-25T10:18:52Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Blind deblurring for microscopic pathology images using deep learning
networks [0.0]
顕微鏡画像のデフォーカスや動きのぼかしを軽減できるディープラーニングベースのアプローチを実証する。
ぼやけたタイプ、ぼやけた範囲、病理染色を事前に知ることなく、より鮮明できめ細かな画像が得られる。
そこで我々は, 画像のぼかし補正とAIアルゴリズムの診断結果の改善に優れた性能を示した。
論文 参考訳(メタデータ) (2020-11-24T03:52:45Z) - Y-Net for Chest X-Ray Preprocessing: Simultaneous Classification of
Geometry and Segmentation of Annotations [70.0118756144807]
この研究は、機械学習アルゴリズムに胸部X線入力のための一般的な前処理ステップを導入する。
VGG11エンコーダをベースとした改良Y-Netアーキテクチャを用いて,ラジオグラフィの幾何学的配向とセグメンテーションを同時に学習する。
対照画像の27.0%,34.9%に対し,95.8%,96.2%のアノテーションマスクが認められた。
論文 参考訳(メタデータ) (2020-05-08T02:16:17Z) - Resource-Frugal Classification and Analysis of Pathology Slides Using
Image Entropy [0.0]
肺悪性腫瘍の病理組織学的スライドは、リソースフルーガル畳み込みニューラルネットワーク(CNN)を用いて分類される
軽量CNNは、スライドを分類するために集約されたタイルレベルの分類を生成する。
カラー符号化された確率マップは、タイルの重なり合い、タイルレベルの確率をピクセルレベルで平均化する。
論文 参考訳(メタデータ) (2020-02-16T18:42:36Z) - Breast Cancer Histopathology Image Classification and Localization using
Multiple Instance Learning [2.4178424543973267]
診断のための顕微鏡組織像を解析するためのコンピュータ支援病理学は、診断のコストと遅延をもたらす可能性がある。
病理学における深層学習は、分類とローカライゼーションのタスクにおいて最先端のパフォーマンスを達成した過去10年間に注目されている。
本稿では,BreakHISとBACHの2つのデータセットの分類とローカライゼーション結果について述べる。
論文 参考訳(メタデータ) (2020-02-16T10:29:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。