論文の概要: A Multi-Scale Conditional Deep Model for Tumor Cell Ratio Counting
- arxiv url: http://arxiv.org/abs/2101.11731v1
- Date: Wed, 27 Jan 2021 22:40:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-01 19:10:19.820301
- Title: A Multi-Scale Conditional Deep Model for Tumor Cell Ratio Counting
- Title(参考訳): 腫瘍細胞比計数のためのマルチスケール条件付きディープモデル
- Authors: Eric Cosatto, Kyle Gerard, Hans-Peter Graf, Maki Ogura, Tomoharu
Kiyuna, Kanako C. Hatanaka, Yoshihiro Matsuno, Yutaka Hatanaka
- Abstract要約: 組織スライド全体の腫瘍細胞の比率を正確に把握する手法を提案する。
我々は、H&E染色組織断面の画像上で細胞を検出し分類するために訓練された、完全な畳み込みニューラルネットワークモデルを使用する。
2つのモデルを組み合わせることで、それぞれ異なる倍率で作業することで、システムはセルレベルの詳細と周囲のコンテキストの両方をキャプチャできることを示す。
- 参考スコア(独自算出の注目度): 4.164451715899639
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a method to accurately obtain the ratio of tumor cells over an
entire histological slide. We use deep fully convolutional neural network
models trained to detect and classify cells on images of H&E-stained tissue
sections. Pathologists' labels consisting of exhaustive nuclei locations and
tumor regions were used to trained the model in a supervised fashion. We show
that combining two models, each working at a different magnification allows the
system to capture both cell-level details and surrounding context to enable
successful detection and classification of cells as either tumor-cell or
normal-cell. Indeed, by conditioning the classification of a single cell on a
multi-scale context information, our models mimic the process used by
pathologists who assess cell neoplasticity and tumor extent at different
microscope magnifications. The ratio of tumor cells can then be readily
obtained by counting the number of cells in each class. To analyze an entire
slide, we split it into multiple tiles that can be processed in parallel. The
overall tumor cell ratio can then be aggregated. We perform experiments on a
dataset of 100 slides with lung tumor specimens from both resection and tissue
micro-array (TMA). We train fully-convolutional models using heavy data
augmentation and batch normalization. On an unseen test set, we obtain an
average mean absolute error on predicting the tumor cell ratio of less than 6%,
which is significantly better than the human average of 20% and is key in
properly selecting tissue samples for recent genetic panel tests geared at
prescribing targeted cancer drugs. We perform ablation studies to show the
importance of training two models at different magnifications and to justify
the choice of some parameters, such as the size of the receptive field.
- Abstract(参考訳): 組織学的スライド全体にわたって腫瘍細胞の比を正確に得る方法を提案する。
深層完全畳み込みニューラルネットワークモデルを用いて,h&e維持組織切片の画像上の細胞の検出と分類を訓練した。
徹底した核位置と腫瘍領域からなる病理学者のラベルを使用して、モデルを監督された方法で訓練しました。
異なる倍率で作業する2つのモデルを組み合わせることで、細胞レベルの詳細と周囲のコンテキストの両方をキャプチャして、腫瘍細胞または正常細胞として細胞の検出と分類を成功させることができることを示す。
実際、マルチスケールのコンテキスト情報で単一細胞の分類を条件づけることで、異なる顕微鏡拡大で細胞新奇性と腫瘍範囲を評価する病理学者が使用するプロセスを模倣する。
腫瘍細胞の比率は、各クラスの細胞数を数えることによって容易に得ることができる。
スライド全体を解析するために、それを複数のタイルに分割し、並列に処理します。
全体の腫瘍細胞比を集計することができる。
切除および組織マイクロアレイ(TMA)の肺腫瘍検体を用いた100スライドのデータセットを用いて実験を行った。
重データ増量とバッチ正規化による全畳み込みモデルのトレーニングを行います。
未確認検体では,腫瘍細胞率を6%未満で予測する平均絶対誤差が得られたが,これはヒトの20%よりも有意に良好であり,標的癌薬の処方を目的とした最近の遺伝子パネル試験において,組織サンプルを適切に選択する上で重要である。
我々は、異なる倍率で2つのモデルを訓練することの重要性を示し、受容場のサイズなどのパラメータの選択を正当化するためにアブレーション研究を行う。
関連論文リスト
- MMIL: A novel algorithm for disease associated cell type discovery [58.044870442206914]
単一細胞データセットは、しばしば個々の細胞ラベルを欠いているため、病気に関連する細胞を特定することは困難である。
セルレベルの分類器の訓練と校正を可能にする予測手法であるMixture Modeling for Multiple Learning Instance (MMIL)を導入する。
論文 参考訳(メタデータ) (2024-06-12T15:22:56Z) - Multi-stream Cell Segmentation with Low-level Cues for Multi-modality
Images [66.79688768141814]
我々は,顕微鏡画像のラベル付けを行うセル分類パイプラインを開発した。
次に、分類ラベルに基づいて分類モデルを訓練する。
2種類のセグメンテーションモデルを、丸みを帯びた形状と不規則な形状のセグメンテーションセルに展開する。
論文 参考訳(メタデータ) (2023-10-22T08:11:08Z) - VOLTA: an Environment-Aware Contrastive Cell Representation Learning for
Histopathology [0.3436781233454516]
病理組織像における細胞表現学習のための自己組織化フレームワーク(VOLTA)を提案する。
我々は、世界中の複数の機関から収集されたデータに関する広範な実験にモデルを適用した。
提案フレームワークの有効性を明らかにするため, 卵巣癌および子宮内膜癌にVOLTAを応用した。
論文 参考訳(メタデータ) (2023-03-08T16:35:47Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Multi-Scale Input Strategies for Medulloblastoma Tumor Classification
using Deep Transfer Learning [59.30734371401316]
乳腺芽腫は小児で最も多い悪性脳腫瘍である。
CNNはMBサブタイプ分類に有望な結果を示した。
タイルサイズと入力戦略の影響について検討した。
論文 参考訳(メタデータ) (2021-09-14T09:42:37Z) - Medulloblastoma Tumor Classification using Deep Transfer Learning with
Multi-Scale EfficientNets [63.62764375279861]
本稿では,エンド・ツー・エンドのMB腫瘍分類を提案し,様々な入力サイズとネットワーク次元の一致した移動学習を提案する。
161ケースのデータセットを用いて、より大規模な入力解像度を持つ事前学習されたEfficientNetが、大幅な性能改善をもたらすことを実証した。
論文 参考訳(メタデータ) (2021-09-10T13:07:11Z) - Triplet Contrastive Learning for Brain Tumor Classification [99.07846518148494]
本稿では,脳腫瘍の深層埋め込みを直接学習する手法を提案する。
本手法は,27種類の腫瘍群からなる広範囲な脳腫瘍データセットを用いて評価し,そのうち13種は稀である。
論文 参考訳(メタデータ) (2021-08-08T11:26:34Z) - Acute Lymphoblastic Leukemia Detection from Microscopic Images Using
Weighted Ensemble of Convolutional Neural Networks [4.095759108304108]
本稿では,深層畳み込みニューラルネットワーク(cnns)を用いた顕微鏡細胞画像からの全検出タスクを自動化した。
ネットワークのより優れた一般化を達成するために、様々なデータ拡張と前処理が組み込まれている。
提案する重み付きアンサンブルモデルでは, アンサンブル候補のカッパ値を重みとして, 重み付きF1スコア88.6 %, バランス付き精度86.2 %, 予備試験セットのAUC0.941を出力した。
論文 参考訳(メタデータ) (2021-05-09T18:58:48Z) - Cell abundance aware deep learning for cell detection on highly
imbalanced pathological data [0.0]
デジタル病理学では、少ない細胞型は生物学的に重要である。
モデルトレーニング中の細胞型の豊富さを考慮した深層学習パイプラインを提案しました。
その結果,細胞量による深層学習損失関数のスケールアップは細胞検出性能を向上させることがわかった。
論文 参考訳(メタデータ) (2021-02-23T13:07:52Z) - Automated Phenotyping via Cell Auto Training (CAT) on the Cell DIVE
Platform [0.5599792629509229]
多重蛍光画像を用いた自動トレーニングセットを用いて, 組織試料中の細胞の自動分類法を提案する。
本発明の方法は、ロバストなハイパープレックス免疫蛍光プラットフォーム上の1つの組織部位に、その場で染色された複数のマーカーを利用する。
論文 参考訳(メタデータ) (2020-07-18T16:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。