論文の概要: Automatically Score Tissue Images Like a Pathologist by Transfer
Learning
- arxiv url: http://arxiv.org/abs/2209.05954v2
- Date: Mon, 27 Mar 2023 21:18:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 19:47:09.342607
- Title: Automatically Score Tissue Images Like a Pathologist by Transfer
Learning
- Title(参考訳): 移植学習による病理組織像の自動スコア化
- Authors: Iris Yan
- Abstract要約: 病理学者は、腫瘍を識別するために手動で組織マイクロアレイ(TMA)画像を見る必要がある。
最大の課題は、異なる形状、サイズ、位置のTMAイメージが同じスコアを持つことだ。
提案したアルゴリズムは、「類似した」スコアパターンを示す組織像から知識を抽出できるが、がんの種類は異なる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cancer is the second leading cause of death in the world. Diagnosing cancer
early on can save many lives. Pathologists have to look at tissue microarray
(TMA) images manually to identify tumors, which can be time-consuming,
inconsistent and subjective. Existing algorithms that automatically detect
tumors have either not achieved the accuracy level of a pathologist or require
substantial human involvements. A major challenge is that TMA images with
different shapes, sizes, and locations can have the same score. Learning
staining patterns in TMA images requires a huge number of images, which are
severely limited due to privacy concerns and regulations in medical
organizations. TMA images from different cancer types may have common
characteristics that could provide valuable information, but using them
directly harms the accuracy. By selective transfer learning from multiple small
auxiliary sets, the proposed algorithm is able to extract knowledge from tissue
images showing a ``similar" scoring pattern but with different cancer types.
Remarkably, transfer learning has made it possible for the algorithm to break
the critical accuracy barrier -- the proposed algorithm reports an accuracy of
75.9% on breast cancer TMA images from the Stanford Tissue Microarray Database,
achieving the 75\% accuracy level of pathologists. This will allow pathologists
to confidently use automatic algorithms to assist them in recognizing tumors
consistently with a higher accuracy in real time.
- Abstract(参考訳): がんは世界で2番目に多い死因である。
早期にがんを診断することで多くの命を救える。
病理学者は、腫瘍を特定するために手動で組織マイクロアレイ(TMA)画像を見る必要がある。
腫瘍を自動的に検出する既存のアルゴリズムは、病理学者の正確性レベルを達成していないか、あるいはかなりの人間の関与を必要とする。
最大の課題は、異なる形状、サイズ、位置のtma画像が同じスコアを持つ可能性があることである。
tma画像の染色パターンを学ぶには膨大な数の画像が必要であるが、医療機関におけるプライバシーの懸念や規制のために、非常に制限されている。
異なるがんタイプのTMA画像には、貴重な情報を提供する共通の特徴があるかもしれないが、それらを使用することで直接精度が損なわれる。
提案アルゴリズムは,複数の補助集合から選択的な移動学習を行うことで,「類似した」スコアリングパターンを示す組織像から知識を抽出できるが,癌の種類は異なる。
このアルゴリズムは、スタンフォード組織マイクロアレイデータベース(Stanford tissue Microarray Database)から乳がんTMA画像の75.9%の精度を報告し、病理学者の75.5%の精度を達成している。
これにより、病理学者は自信を持って自動アルゴリズムを使用して腫瘍の認識をリアルタイムでより高精度に行うことができる。
関連論文リスト
- Detecting Brain Tumors through Multimodal Neural Networks [0.0]
本研究の目的は、グレースケール画像として処理されたMRIスキャンの分類のためのマルチモーダルモデルの性能を評価することである。
結果は有望であり、モデルが約98%の精度に達すると、同様の結果が得られる。
論文 参考訳(メタデータ) (2024-01-10T13:06:52Z) - Multi-task learning for tissue segmentation and tumor detection in
colorectal cancer histology slides [0.9176056742068814]
U-Netに基づくマルチタスクモデルとチャネルワイドおよび画像統計に基づくカラー拡張を提案する。
組織分画は8655(Arm1), AUROCは8515(Arm2), AUROCは9725(Arm1), 0.9750(Arm2)であった。
論文 参考訳(メタデータ) (2023-04-06T14:26:41Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - Stain-invariant self supervised learning for histopathology image
analysis [74.98663573628743]
乳がんのヘマトキシリンおよびエオシン染色像におけるいくつかの分類課題に対する自己監督アルゴリズムを提案する。
本手法は,いくつかの乳がんデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-14T18:16:36Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Assessing glaucoma in retinal fundus photographs using Deep Feature
Consistent Variational Autoencoders [63.391402501241195]
緑内障は症状が重くなるまで無症状のままでいるため、検出が困難である。
緑内障の早期診断は機能的,構造的,臨床的評価に基づいて行われることが多い。
ディープラーニング手法はこのジレンマを、マーカー識別段階をバイパスし、ハイレベルな情報を分析してデータを分類することで部分的に解決している。
論文 参考訳(メタデータ) (2021-10-04T16:06:49Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - IAIA-BL: A Case-based Interpretable Deep Learning Model for
Classification of Mass Lesions in Digital Mammography [20.665935997959025]
機械学習モデルの解釈性は、高リスク決定において重要である。
機械学習に基づくマンモグラフィを解釈可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-23T05:00:21Z) - Overcoming the limitations of patch-based learning to detect cancer in
whole slide images [0.15658704610960567]
ディープラーニングモデルをトレーニングする際、WSI(Whole Slide Image)がユニークな課題を提起する。
われわれは,スライド全体にわたって,がんの局所化や分節を正確に行う必要がある方法と,パッチやスライドレベルの分類の違いを概説する。
本稿では, 偽陽性率を大幅に低減し, 問題点に関連する各指標を改善する負のデータサンプリング戦略を提案する。
論文 参考訳(メタデータ) (2020-12-01T16:37:18Z) - Multi-label Thoracic Disease Image Classification with Cross-Attention
Networks [65.37531731899837]
胸部X線画像から胸部疾患を自動分類するためのCAN(Cross-Attention Networks)を提案する。
また,クロスエントロピー損失を超える新たな損失関数を設計し,クラス間の不均衡を克服する。
論文 参考訳(メタデータ) (2020-07-21T14:37:00Z) - Synthesizing lesions using contextual GANs improves breast cancer
classification on mammograms [0.4297070083645048]
本稿では, マンモグラムの病変を現実的に合成し, 除去するデータ拡張のための, GANモデルを提案する。
自己注意と半教師付き学習コンポーネントにより、U-netベースのアーキテクチャは高解像度(256x256px)の出力を生成することができる。
論文 参考訳(メタデータ) (2020-05-29T21:23:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。