論文の概要: ReCasNet: Improving consistency within the two-stage mitosis detection
framework
- arxiv url: http://arxiv.org/abs/2202.13912v1
- Date: Mon, 28 Feb 2022 16:03:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 17:28:12.572336
- Title: ReCasNet: Improving consistency within the two-stage mitosis detection
framework
- Title(参考訳): ReCasNet: 2段階ミトーシス検出フレームワークにおける一貫性の改善
- Authors: Chawan Piansaddhayanon, Sakun Santisukwongchote, Shanop Shuangshoti,
Qingyi Tao, Sira Sriswasdi, Ekapol Chuangsuwanich
- Abstract要約: 既存のアプローチでは、潜在的な有糸分裂細胞の位置を特定するための検出ステージと、予測信頼性を精査するための分類ステージという、2段階のパイプラインが使用されている。
このパイプライン定式化は、検出段階の予測品質の低下と、トレーニングデータ分布のミスマッチによる分類段階の不整合につながる可能性がある。
Refine Cascade Network(ReCasNet)は,先述した問題を3つの改善で軽減する,拡張されたディープラーニングパイプラインである。
- 参考スコア(独自算出の注目度): 5.263015177621435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mitotic count (MC) is an important histological parameter for cancer
diagnosis and grading, but the manual process for obtaining MC from whole-slide
histopathological images is very time-consuming and prone to error. Therefore,
deep learning models have been proposed to facilitate this process. Existing
approaches utilize a two-stage pipeline: the detection stage for identifying
the locations of potential mitotic cells and the classification stage for
refining prediction confidences. However, this pipeline formulation can lead to
inconsistencies in the classification stage due to the poor prediction quality
of the detection stage and the mismatches in training data distributions
between the two stages. In this study, we propose a Refine Cascade Network
(ReCasNet), an enhanced deep learning pipeline that mitigates the
aforementioned problems with three improvements. First, window relocation was
used to reduce the number of poor quality false positives generated during the
detection stage. Second, object re-cropping was performed with another deep
learning model to adjust poorly centered objects. Third, improved data
selection strategies were introduced during the classification stage to reduce
the mismatches in training data distributions. ReCasNet was evaluated on two
large-scale mitotic figure recognition datasets, canine cutaneous mast cell
tumor (CCMCT) and canine mammary carcinoma (CMC), which resulted in up to 4.8%
percentage point improvements in the F1 scores for mitotic cell detection and
44.1% reductions in mean absolute percentage error (MAPE) for MC prediction.
Techniques that underlie ReCasNet can be generalized to other two-stage object
detection networks and should contribute to improving the performances of deep
learning models in broad digital pathology applications.
- Abstract(参考訳): 有糸分裂数 (mitotic count, mc) は, 癌診断および診断における重要な組織学的パラメータであるが, 病理組織学的画像からmcを得るための手作業は非常に時間を要するため, 誤差を生じやすい。
そのため、このプロセスを促進するためにディープラーニングモデルが提案されている。
既存のアプローチでは、2段階のパイプラインを使用しており、潜在的な分裂細胞の場所を識別する検出段階と、予測の信頼性を高めるための分類段階である。
しかし、このパイプラインの定式化は、検出段階の予測品質の低さと、2段階間のデータ分布のトレーニングミスマッチにより、分類段階の矛盾を招く可能性がある。
本研究では,先述した問題を3つの改善で緩和する改良されたディープラーニングパイプラインであるRefine Cascade Network(ReCasNet)を提案する。
まず,検出段階で発生する品質の悪い偽陽性の数を減らすため,ウィンドウ転位を用いた。
第2に,別のディープラーニングモデルを用いて,不偏中心オブジェクトの調整を行った。
第3に,トレーニングデータ分布のミスマッチを低減するため,分類段階で改良されたデータ選択戦略が導入された。
ReCasNetは、犬皮膚マスト細胞腫瘍(CCMCT)と犬乳腺癌(CMC)の2つの大規模な有糸分裂型人物認識データセットで評価され、その結果、分裂型細胞検出のためのF1スコアが4.8%向上し、MC予測のための平均絶対パーセンテージ誤差(MAPE)が44.1%減少した。
ReCasNetの根底にある技術は、他の2段階のオブジェクト検出ネットワークに一般化することができ、幅広いデジタル病理学応用におけるディープラーニングモデルの性能向上に寄与する。
関連論文リスト
- Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - SEMI-DiffusionInst: A Diffusion Model Based Approach for Semiconductor
Defect Classification and Segmentation [0.11999555634662631]
この研究は拡散モデルを用いて半導体欠陥パターンを正確に検出し、正確にセグメント化する最初の実演である。
提案手法は,mAP全体のこれまでの成果よりも優れており,ほぼすべての欠陥クラスに対して比較的優れた性能を示す。
論文 参考訳(メタデータ) (2023-07-17T17:53:36Z) - A Novel Dataset and a Deep Learning Method for Mitosis Nuclei
Segmentation and Classification [10.960222475663006]
ミトコンドリア核数(Mitosis nuclear count)は乳癌の病理診断における重要な指標の1つである。
そこで本研究では,SCMitosisという2段階のミトーシスセグメンテーションと分類法を提案する。
提案モデルはICPR 2012データセット上で検証され、最高Fスコア値は0.8687である。
論文 参考訳(メタデータ) (2022-12-27T08:12:42Z) - An Efficient End-to-End Deep Neural Network for Interstitial Lung
Disease Recognition and Classification [0.5424799109837065]
本稿では、IDDパターンを分類するためのエンドツーエンドのディープ畳み込みニューラルネットワーク(CNN)を提案する。
提案モデルでは,カーネルサイズが異なる4つの畳み込み層と,Rectified Linear Unit (ReLU) アクティベーション機能を備える。
128のCTスキャンと5つのクラスからなる21328の画像パッチからなるデータセットを用いて、提案モデルのトレーニングと評価を行う。
論文 参考訳(メタデータ) (2022-04-21T06:36:10Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - Multi-Scale Input Strategies for Medulloblastoma Tumor Classification
using Deep Transfer Learning [59.30734371401316]
乳腺芽腫は小児で最も多い悪性脳腫瘍である。
CNNはMBサブタイプ分類に有望な結果を示した。
タイルサイズと入力戦略の影響について検討した。
論文 参考訳(メタデータ) (2021-09-14T09:42:37Z) - Cross-Site Severity Assessment of COVID-19 from CT Images via Domain
Adaptation [64.59521853145368]
CT画像によるコロナウイルス病2019(COVID-19)の早期かつ正確な重症度評価は,集中治療単位のイベント推定に有効である。
ラベル付きデータを拡張し、分類モデルの一般化能力を向上させるためには、複数のサイトからデータを集約する必要がある。
この課題は、軽度の感染症と重度の感染症の集団不均衡、部位間のドメイン分布の相違、不均一な特徴の存在など、いくつかの課題に直面する。
論文 参考訳(メタデータ) (2021-09-08T07:56:51Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Collaborative Boundary-aware Context Encoding Networks for Error Map
Prediction [65.44752447868626]
本稿では,AEP-Net と呼ばれる協調的コンテキスト符号化ネットワークを提案する。
具体的には、画像とマスクのより優れた特徴融合のための協調的な特徴変換分岐と、エラー領域の正確な局所化を提案する。
AEP-Netはエラー予測タスクの平均DSCが0.8358,0.8164であり、ピアソン相関係数が0.9873である。
論文 参考訳(メタデータ) (2020-06-25T12:42:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。