論文の概要: Leveraging weak complementary labels to improve semantic segmentation of
hepatocellular carcinoma and cholangiocarcinoma in H&E-stained slides
- arxiv url: http://arxiv.org/abs/2302.01813v1
- Date: Fri, 3 Feb 2023 15:35:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-06 15:41:40.903425
- Title: Leveraging weak complementary labels to improve semantic segmentation of
hepatocellular carcinoma and cholangiocarcinoma in H&E-stained slides
- Title(参考訳): 弱い相補ラベルを用いたh&e染色スライダにおける肝細胞癌および胆管癌のセグメンテーション改善
- Authors: Miriam H\"agele and Johannes Eschrich and Lukas Ruff and Maximilian
Alber and Simon Schallenberg and Adrien Guillot and Christoph Roderburg and
Frank Tacke and Frederick Klauschen
- Abstract要約: 肝内胆管癌と肝内胆管癌との鑑別・定量化のための深層学習セグメンテーション手法を提案する。
本稿では, 患者診断の弱い情報を, サンプルがどのクラスに属さないかを示す補完ラベルを導出することによって活用することを提案する。
- 参考スコア(独自算出の注目度): 3.418658036508099
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present a deep learning segmentation approach to classify
and quantify the two most prevalent primary liver cancers - hepatocellular
carcinoma and intrahepatic cholangiocarcinoma - from hematoxylin and eosin
(H&E) stained whole slide images. While semantic segmentation of medical images
typically requires costly pixel-level annotations by domain experts, there
often exists additional information which is routinely obtained in clinical
diagnostics but rarely utilized for model training. We propose to leverage such
weak information from patient diagnoses by deriving complementary labels that
indicate to which class a sample cannot belong to. To integrate these labels,
we formulate a complementary loss for segmentation. Motivated by the medical
application, we demonstrate for general segmentation tasks that including
additional patches with solely weak complementary labels during model training
can significantly improve the predictive performance and robustness of a model.
On the task of diagnostic differentiation between hepatocellular carcinoma and
intrahepatic cholangiocarcinoma, we achieve a balanced accuracy of 0.91 (CI
95%: 0.86 - 0.95) at case level for 165 hold-out patients. Furthermore, we also
show that leveraging complementary labels improves the robustness of
segmentation and increases performance at case level.
- Abstract(参考訳): 本稿では,肝細胞癌と肝内胆管癌の2つの原発性肝癌をヘマトキシリンおよびエオシン(H&E)染色画像から分類,定量化するための深層学習セグメンテーション手法を提案する。
医用画像のセマンティックセグメンテーションは通常、ドメインの専門家による高価なピクセルレベルのアノテーションを必要とするが、臨床診断で日常的に得られるが、モデルトレーニングにはほとんど使われない追加情報が存在する。
本稿では,患者診断の弱い情報を,サンプルがどのクラスに属さないかを示す補完ラベルを導出することによって活用することを提案する。
これらのラベルを統合するために、セグメント化の相補的な損失を定式化する。
医学的応用により、モデルトレーニング中にのみ弱相補ラベルのパッチを含む一般的なセグメンテーションタスクは、モデルの予測性能と堅牢性を大幅に向上させることができることを示す。
肝細胞癌と肝内胆管癌との鑑別作業において,保留患者165例において,0.91 (ci 95%: 0.86 - 0.95) のバランスの取れた精度が得られた。
さらに,補完ラベルの活用によってセグメント化の堅牢性が向上し,ケースレベルでのパフォーマンスが向上することを示す。
関連論文リスト
- Semi- and Weakly-Supervised Learning for Mammogram Mass Segmentation with Limited Annotations [49.33388736227072]
本稿では,マスセグメンテーションのための半弱教師付き学習フレームワークを提案する。
良好な性能を得るために, 限られた強ラベルのサンプルと十分な弱ラベルのサンプルを用いる。
CBIS-DDSMおよびINbreastデータセットを用いた実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-03-14T12:05:25Z) - CAMEL2: Enhancing weakly supervised learning for histopathology images
by incorporating the significance ratio [6.299113890437597]
病理組織像解析は癌診断において重要な役割を担っている。
画像レベルで粗いラベルのみを必要とする弱い教師付き学習法は、ラベル付けの労力を大幅に削減する。
我々は,ピクセルレベルのセグメンテーションにおいて,完全に教師付きベースラインに匹敵する結果が得られるCAMEL2を提案する。
論文 参考訳(メタデータ) (2023-10-09T04:17:21Z) - Two-Stage Hybrid Supervision Framework for Fast, Low-resource, and
Accurate Organ and Pan-cancer Segmentation in Abdomen CT [12.506232623163665]
腹腔内臓器と腫瘍の分節化のための自己訓練と平均教師を統合したハイブリッド・教師付きフレームワークStMtを提案する。
FLARE2023の検証実験により,本手法が優れたセグメンテーション性能を実現することを示す。
論文 参考訳(メタデータ) (2023-09-11T12:12:25Z) - Clinically Labeled Contrastive Learning for OCT Biomarker Classification [12.633032175875865]
本稿では,臨床データから抽出可能なラベルに基づく医用画像のコントラスト学習手法を提案する。
バイオマーカーラベルを使わずに,臨床データを擬似ラベルとして利用することで,この関係を活用できる。
バイオマーカー検出AUROCでは,最大5%の性能向上が見られた。
論文 参考訳(メタデータ) (2023-05-24T13:51:48Z) - Learning to diagnose cirrhosis from radiological and histological labels
with joint self and weakly-supervised pretraining strategies [62.840338941861134]
そこで本稿では, 放射線学者が注釈付けした大規模データセットからの転写学習を活用して, 小さい付加データセットで利用できる組織学的スコアを予測することを提案する。
我々は,肝硬変の予測を改善するために,異なる事前訓練法,すなわち弱い指導法と自己指導法を比較した。
この方法は、METAVIRスコアのベースライン分類を上回り、AUCが0.84、バランスの取れた精度が0.75に達する。
論文 参考訳(メタデータ) (2023-02-16T17:06:23Z) - Clinical Contrastive Learning for Biomarker Detection [15.510581400494207]
臨床とバイオマーカーデータの関係を利用して,バイオマーカー分類の性能を向上する。
これは、バイオマーカーラベルを使わずに、大量の臨床データを擬似ラベルとして活用することで達成される。
本手法は, バイオマーカー検出の精度を最大5%向上させることで, 自己監督手法の精度を最大で5%向上させることを示した。
論文 参考訳(メタデータ) (2022-11-09T18:29:56Z) - A Pathologist-Informed Workflow for Classification of Prostate Glands in
Histopathology [62.997667081978825]
病理学者は、ガラススライド上の針生検の組織を調べて前立腺がんを診断し、診断する。
がんの重症度と転移リスクは、前立腺の組織と形態に基づくスコアであるGleason gradeによって決定される。
本稿では,病理学者のtextitmodus operandi に従って,個々の腺のマルチスケールパッチを分離・分類する自動ワークフローを提案する。
論文 参考訳(メタデータ) (2022-09-27T14:08:19Z) - WSSS4LUAD: Grand Challenge on Weakly-supervised Tissue Semantic
Segmentation for Lung Adenocarcinoma [51.50991881342181]
この課題には10,091個のパッチレベルのアノテーションと1300万以上のラベル付きピクセルが含まれる。
第一位チームは0.8413mIoUを達成した(腫瘍:0.8389、ストーマ:0.7931、正常:0.8919)。
論文 参考訳(メタデータ) (2022-04-13T15:27:05Z) - Lymphocyte Classification in Hyperspectral Images of Ovarian Cancer
Tissue Biopsy Samples [94.37521840642141]
生検コアのハイパースペクトル画像に白血球画素を分割する機械学習パイプラインを提案する。
これらの細胞は臨床的に診断に重要であるが、いくつかの先行研究は正確なピクセルラベルを得るのが困難であるため、それらを組み込むのに苦労している。
論文 参考訳(メタデータ) (2022-03-23T00:58:27Z) - Label-Assemble: Leveraging Multiple Datasets with Partial Labels [68.46767639240564]
Label-Assemble”は、公開データセットのアセンブリから部分的なラベルの可能性を最大限に活用することを目的としている。
陰例からの学習は,コンピュータ支援型疾患の診断と検出の双方を促進することが判明した。
論文 参考訳(メタデータ) (2021-09-25T02:48:17Z) - Deeply supervised UNet for semantic segmentation to assist
dermatopathological assessment of Basal Cell Carcinoma (BCC) [2.031570465477242]
unetアーキテクチャに基づく複数のモデルを用いた意味セグメンテーションによる基底細胞癌(bcc)の検出に焦点を当てた。
unetネットワークの最初の2つの異なるエンコーダと2つの追加のトレーニング戦略を分析した。
最高のモデルは、テストセット上の96%、精度、感度、および特異性を達成します。
論文 参考訳(メタデータ) (2021-03-05T15:39:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。