論文の概要: Supervised Contrastive Vision Transformer for Breast Histopathological Image Classification
- arxiv url: http://arxiv.org/abs/2404.11052v1
- Date: Wed, 17 Apr 2024 03:51:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-18 15:14:36.535840
- Title: Supervised Contrastive Vision Transformer for Breast Histopathological Image Classification
- Title(参考訳): 乳腺病理像分類のための造影コントラスト変換器の開発
- Authors: Mohammad Shiri, Jiangwen Sun,
- Abstract要約: 浸潤性乳管癌(Invasive ductal carcinoma,IDC)は乳癌の最も多い形態である。
In this present a novel approach, Supervised Contrastive Vision Transformer (SupCon-ViT) to improve the classification of IDC。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Invasive ductal carcinoma (IDC) is the most prevalent form of breast cancer. Breast tissue histopathological examination is critical in diagnosing and classifying breast cancer. Although existing methods have shown promising results, there is still room for improvement in the classification accuracy and generalization of IDC using histopathology images. We present a novel approach, Supervised Contrastive Vision Transformer (SupCon-ViT), for improving the classification of invasive ductal carcinoma in terms of accuracy and generalization by leveraging the inherent strengths and advantages of both transfer learning, i.e., pre-trained vision transformer, and supervised contrastive learning. Our results on a benchmark breast cancer dataset demonstrate that SupCon-Vit achieves state-of-the-art performance in IDC classification, with an F1-score of 0.8188, precision of 0.7692, and specificity of 0.8971, outperforming existing methods. In addition, the proposed model demonstrates resilience in scenarios with minimal labeled data, making it highly efficient in real-world clinical settings where labelled data is limited. Our findings suggest that supervised contrastive learning in conjunction with pre-trained vision transformers appears to be a viable strategy for an accurate classification of IDC, thus paving the way for a more efficient and reliable diagnosis of breast cancer through histopathological image analysis.
- Abstract(参考訳): 浸潤性乳管癌(Invasive ductal carcinoma,IDC)は乳癌の最も多い形態である。
乳癌の診断と分類には乳房組織組織学的検査が重要である。
既存の方法では有望な結果が得られているが,病理組織像を用いてIDCの分類精度と一般化を向上する余地は残っている。
本稿では, トランスファーラーニング, 事前訓練されたビジョントランスフォーマー, 教師付きコントラスト学習の固有の長所と長所を活用することにより, 浸潤性胆管癌の分類を精度と一般化の観点から改善するための新しいアプローチであるSupervised Contrastive Vision Transformer(SupCon-ViT)を提案する。
IDC分類では,SupCon-VitがF1スコア0.8188,精度0.7692,特異性0.8971を達成し,既存手法よりも高い精度を示した。
さらに,ラベル付きデータが最小限のシナリオでレジリエンスを実証し,ラベル付きデータが制限された実環境において高い効率性を実現する。
以上の結果から,事前学習した視力変換器と併用した教師付きコントラスト学習が,IDCの正確な分類に有効な戦略であることが明らかとなり,病理組織像解析による乳癌のより効率的かつ信頼性の高い診断方法が確立された。
関連論文リスト
- MM-SurvNet: Deep Learning-Based Survival Risk Stratification in Breast
Cancer Through Multimodal Data Fusion [18.395418853966266]
乳がん生存リスク階層化のための新しい深層学習手法を提案する。
画像特徴抽出には視覚変換器、特にMaxViTモデルを使用し、患者レベルでの複雑な画像関係のキャプチャには自己注意を用いる。
二重クロスアテンション機構はこれらの特徴を遺伝データと融合させ、臨床データを最終層に組み込んで予測精度を高める。
論文 参考訳(メタデータ) (2024-02-19T02:31:36Z) - Enhancing Transformer-Based Segmentation for Breast Cancer Diagnosis
using Auto-Augmentation and Search Optimisation Techniques [3.495246564946556]
本稿では,自動画像強調選択(RandAugment)と検索戦略(Tree-based Parzen Estimator)を組み合わせた手法を提案する。
乳がん組織学的スライスに対するアプローチを実験的に検証し,がん細胞の分節化に着目した。
以上の結果から,提案手法は組織スライドの変動に対してより回復力のあるセグメンテーションモデルに導かれることが示唆された。
論文 参考訳(メタデータ) (2023-11-18T13:08:09Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - Classification of Breast Tumours Based on Histopathology Images Using
Deep Features and Ensemble of Gradient Boosting Methods [0.0]
提案するCADシステムの特徴抽出器の主案として,Deep Feature Transfer Learningが用いられている。
Inception-ResNet-v2は乳癌の病理組織像において最も優れた特徴抽出能を示した。
分類段階では,CatBoost,XGBoost,LightGBMのアンサンブルが最も平均精度が高い。
論文 参考訳(メタデータ) (2022-09-03T09:27:00Z) - Visualizing CoAtNet Predictions for Aiding Melanoma Detection [0.0]
本稿では,CoAtNetアーキテクチャを用いたマルチクラス分類タスクを提案する。
全体的な精度は0.901, 0.895, AP 0.923で、他の最先端ネットワークと比較して高い性能を示している。
論文 参考訳(メタデータ) (2022-05-21T06:41:52Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Multi-Scale Hybrid Vision Transformer for Learning Gastric Histology:
AI-Based Decision Support System for Gastric Cancer Treatment [50.89811515036067]
胃内視鏡検査は、早期に適切な胃癌(GC)治療を判定し、GC関連死亡率を低下させる有効な方法である。
本稿では,一般のGC治療指導と直接一致する5つのGC病理のサブ分類を可能にする実用的なAIシステムを提案する。
論文 参考訳(メタデータ) (2022-02-17T08:33:52Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Dual-Consistency Semi-Supervised Learning with Uncertainty
Quantification for COVID-19 Lesion Segmentation from CT Images [49.1861463923357]
CT画像を用いた半監視型COVID-19病変分割のための不確実性誘導型二重一貫性学習ネットワーク(UDC-Net)を提案する。
提案した UDC-Net は,Dice の完全教師方式を 6.3% 向上させ,他の競合的半監督方式を有意なマージンで上回っている。
論文 参考訳(メタデータ) (2021-04-07T16:23:35Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z) - Synthesizing lesions using contextual GANs improves breast cancer
classification on mammograms [0.4297070083645048]
本稿では, マンモグラムの病変を現実的に合成し, 除去するデータ拡張のための, GANモデルを提案する。
自己注意と半教師付き学習コンポーネントにより、U-netベースのアーキテクチャは高解像度(256x256px)の出力を生成することができる。
論文 参考訳(メタデータ) (2020-05-29T21:23:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。