論文の概要: Automatically Score Tissue Images Like a Pathologist by Transfer
Learning
- arxiv url: http://arxiv.org/abs/2209.05954v3
- Date: Wed, 8 Nov 2023 21:24:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-10 19:15:00.941291
- Title: Automatically Score Tissue Images Like a Pathologist by Transfer
Learning
- Title(参考訳): 移植学習による病理組織像の自動スコア化
- Authors: Iris Yan
- Abstract要約: 病理学者は、腫瘍を識別するために手動で組織マイクロアレイ(TMA)画像を見る必要がある。
最大の課題は、異なる形状、サイズ、位置のTMAイメージが同じスコアを持つことだ。
本稿では,複数の問題から学習できる新しい移動学習アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cancer is the second leading cause of death in the world. Diagnosing cancer
early on can save many lives. Pathologists have to look at tissue microarray
(TMA) images manually to identify tumors, which can be time-consuming,
inconsistent and subjective. Existing automatic algorithms either have not
achieved the accuracy level of a pathologist or require substantial human
involvements. A major challenge is that TMA images with different shapes,
sizes, and locations can have the same score. Learning staining patterns in TMA
images requires a huge number of images, which are severely limited due to
privacy and regulation concerns in medical organizations. TMA images from
different cancer types may share certain common characteristics, but combining
them directly harms the accuracy due to heterogeneity in their staining
patterns. Transfer learning is an emerging learning paradigm that allows
borrowing strength from similar problems. However, existing approaches
typically require a large sample from similar learning problems, while TMA
images of different cancer types are often available in small sample size and
further existing algorithms are limited to transfer learning from one similar
problem. We propose a new transfer learning algorithm that could learn from
multiple related problems, where each problem has a small sample and can have a
substantially different distribution from the original one. The proposed
algorithm has made it possible to break the critical accuracy barrier (the 75%
accuracy level of pathologists), with a reported accuracy of 75.9% on breast
cancer TMA images from the Stanford Tissue Microarray Database. It is supported
by recent developments in transfer learning theory and empirical evidence in
clustering technology. This will allow pathologists to confidently adopt
automatic algorithms in recognizing tumors consistently with a higher accuracy
in real time.
- Abstract(参考訳): がんは世界で2番目に多い死因である。
早期にがんを診断することで多くの命を救える。
病理学者は、腫瘍を特定するために手動で組織マイクロアレイ(TMA)画像を見る必要がある。
既存の自動アルゴリズムは病理学者の正確性レベルに達していないか、あるいはかなりの人間の関与を必要とする。
最大の課題は、異なる形状、サイズ、位置のtma画像が同じスコアを持つ可能性があることである。
tma画像における染色パターンの学習には膨大な数の画像が必要であり、医療機関のプライバシーや規制上の懸念からかなり制限されている。
異なるがんタイプのTMA画像は、特定の共通の特徴を共有できるが、それらの組み合わせは、染色パターンの不均一性による精度を直接的に損なう。
トランスファーラーニングは、同様の問題から強みを借りることのできる、新たな学習パラダイムである。
しかし、既存のアプローチでは、通常、類似した学習問題の大規模なサンプルを必要とするが、異なるがんタイプのTMAイメージは、小さなサンプルサイズでしばしば利用可能であり、さらに既存のアルゴリズムは、類似した問題からの学習の転送に限られている。
本稿では,複数の問題から学習可能な新しい移動学習アルゴリズムを提案する。各問題には小さなサンプルがあり,元の問題とはかなり異なる分布を持つことができる。
提案したアルゴリズムは、スタンフォード組織マイクロアレイデータベース(Stanford tissue Microarray Database)から乳がんTMA画像の75.9%の精度で、重要な精度障壁(病理医の75%の精度レベル)を破ることを可能にした。
転送学習理論の最近の発展とクラスタリング技術の実証的証拠によって支持されている。
これにより、病理学者は腫瘍をリアルタイムでより高い精度で認識する自動アルゴリズムを確実に採用できる。
関連論文リスト
- Detecting Brain Tumors through Multimodal Neural Networks [0.0]
本研究の目的は、グレースケール画像として処理されたMRIスキャンの分類のためのマルチモーダルモデルの性能を評価することである。
結果は有望であり、モデルが約98%の精度に達すると、同様の結果が得られる。
論文 参考訳(メタデータ) (2024-01-10T13:06:52Z) - Multi-task learning for tissue segmentation and tumor detection in
colorectal cancer histology slides [0.9176056742068814]
U-Netに基づくマルチタスクモデルとチャネルワイドおよび画像統計に基づくカラー拡張を提案する。
組織分画は8655(Arm1), AUROCは8515(Arm2), AUROCは9725(Arm1), 0.9750(Arm2)であった。
論文 参考訳(メタデータ) (2023-04-06T14:26:41Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - Stain-invariant self supervised learning for histopathology image
analysis [74.98663573628743]
乳がんのヘマトキシリンおよびエオシン染色像におけるいくつかの分類課題に対する自己監督アルゴリズムを提案する。
本手法は,いくつかの乳がんデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-14T18:16:36Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Assessing glaucoma in retinal fundus photographs using Deep Feature
Consistent Variational Autoencoders [63.391402501241195]
緑内障は症状が重くなるまで無症状のままでいるため、検出が困難である。
緑内障の早期診断は機能的,構造的,臨床的評価に基づいて行われることが多い。
ディープラーニング手法はこのジレンマを、マーカー識別段階をバイパスし、ハイレベルな情報を分析してデータを分類することで部分的に解決している。
論文 参考訳(メタデータ) (2021-10-04T16:06:49Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - IAIA-BL: A Case-based Interpretable Deep Learning Model for
Classification of Mass Lesions in Digital Mammography [20.665935997959025]
機械学習モデルの解釈性は、高リスク決定において重要である。
機械学習に基づくマンモグラフィを解釈可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-23T05:00:21Z) - Overcoming the limitations of patch-based learning to detect cancer in
whole slide images [0.15658704610960567]
ディープラーニングモデルをトレーニングする際、WSI(Whole Slide Image)がユニークな課題を提起する。
われわれは,スライド全体にわたって,がんの局所化や分節を正確に行う必要がある方法と,パッチやスライドレベルの分類の違いを概説する。
本稿では, 偽陽性率を大幅に低減し, 問題点に関連する各指標を改善する負のデータサンプリング戦略を提案する。
論文 参考訳(メタデータ) (2020-12-01T16:37:18Z) - Multi-label Thoracic Disease Image Classification with Cross-Attention
Networks [65.37531731899837]
胸部X線画像から胸部疾患を自動分類するためのCAN(Cross-Attention Networks)を提案する。
また,クロスエントロピー損失を超える新たな損失関数を設計し,クラス間の不均衡を克服する。
論文 参考訳(メタデータ) (2020-07-21T14:37:00Z) - Synthesizing lesions using contextual GANs improves breast cancer
classification on mammograms [0.4297070083645048]
本稿では, マンモグラムの病変を現実的に合成し, 除去するデータ拡張のための, GANモデルを提案する。
自己注意と半教師付き学習コンポーネントにより、U-netベースのアーキテクチャは高解像度(256x256px)の出力を生成することができる。
論文 参考訳(メタデータ) (2020-05-29T21:23:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。