論文の概要: Rotation-Agnostic Image Representation Learning for Digital Pathology
- arxiv url: http://arxiv.org/abs/2311.08359v2
- Date: Tue, 12 Mar 2024 16:40:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 01:24:52.616981
- Title: Rotation-Agnostic Image Representation Learning for Digital Pathology
- Title(参考訳): デジタル病理のための回転非依存画像表現学習
- Authors: Saghir Alfasly, Abubakr Shafique, Peyman Nejat, Jibran Khan, Areej
Alsaafin, Ghazal Alabtah, H.R. Tizhoosh
- Abstract要約: 本稿では,全スライディング画像(WSI)解析のための高速パッチ選択法FPSを提案する。
また5つのTransformerブロックの最小構成を持つ軽量な病理機能抽出器であるPathDinoも紹介されている。
本モデルでは,12種類の異なるデータセット上で,既存の病理組織特異的ビジョントランスフォーマーよりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 0.8246494848934447
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper addresses complex challenges in histopathological image analysis
through three key contributions. Firstly, it introduces a fast patch selection
method, FPS, for whole-slide image (WSI) analysis, significantly reducing
computational cost while maintaining accuracy. Secondly, it presents PathDino,
a lightweight histopathology feature extractor with a minimal configuration of
five Transformer blocks and only 9 million parameters, markedly fewer than
alternatives. Thirdly, it introduces a rotation-agnostic representation
learning paradigm using self-supervised learning, effectively mitigating
overfitting. We also show that our compact model outperforms existing
state-of-the-art histopathology-specific vision transformers on 12 diverse
datasets, including both internal datasets spanning four sites (breast, liver,
skin, and colorectal) and seven public datasets (PANDA, CAMELYON16, BRACS,
DigestPath, Kather, PanNuke, and WSSS4LUAD). Notably, even with a training
dataset of 6 million histopathology patches from The Cancer Genome Atlas
(TCGA), our approach demonstrates an average 8.5% improvement in patch-level
majority vote performance. These contributions provide a robust framework for
enhancing image analysis in digital pathology, rigorously validated through
extensive evaluation. Project Page:
https://kimialabmayo.github.io/PathDino-Page/
- Abstract(参考訳): 本稿では,3つの重要な貢献を通じて,病理像解析における複雑な課題について論じる。
まず、全スライディング画像(WSI)解析のための高速パッチ選択法FPSを導入し、精度を維持しながら計算コストを大幅に削減する。
第2に,トランスフォーマーブロック5ブロックとパラメータ900万という最小構成の軽量な病理組織学的特徴抽出装置であるpathdinoを提案する。
第3に,自己教師付き学習を用いたローテーション非依存表現学習パラダイムを導入し,オーバーフィッティングを効果的に軽減する。
また,本モデルでは,4つの部位(胸部,肝臓,皮膚,大腸)と7つの公開データセット(PANDA,CAMELYON16,BRACS,DigestPath,Kather,PanNuke,WSSS4LUAD)にまたがる内部データセットを含む12種類のデータセットにおいて,既存の病理組織特異的ビジョントランスフォーマよりも優れていることを示す。
特に、The Cancer Genome Atlas (TCGA)の600万の病理組織学的パッチのトレーニングデータセットであっても、我々のアプローチはパッチレベルの多数投票のパフォーマンスを平均8.5%改善している。
これらの貢献は、デジタル病理学における画像解析を強化するための堅牢な枠組みを提供し、広範囲な評価を通じて厳格に検証される。
プロジェクトページ: https://kimialabmayo.github.io/pathdino-page/
関連論文リスト
- Towards a Benchmark for Colorectal Cancer Segmentation in Endorectal Ultrasound Videos: Dataset and Model Development [59.74920439478643]
本稿では,多様なERUSシナリオをカバーする最初のベンチマークデータセットを収集し,注釈付けする。
ERUS-10Kデータセットは77の動画と10,000の高解像度アノテートフレームで構成されています。
本稿では,ASTR (Adaptive Sparse-context TRansformer) という大腸癌セグメンテーションのベンチマークモデルを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:04:42Z) - Significantly improving zero-shot X-ray pathology classification via fine-tuning pre-trained image-text encoders [50.689585476660554]
本稿では,正対損失緩和とランダムな文サンプリングを含む新たな微調整手法を提案する。
提案手法は,胸部X線データセットと3つの事前訓練モデル間のゼロショット病理分類を一貫して改善する。
論文 参考訳(メタデータ) (2022-12-14T06:04:18Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - CASS: Cross Architectural Self-Supervision for Medical Image Analysis [0.0]
Cross Architectural Self-Supervisionは、トランスフォーマーとCNNを同時に活用する、新しい自己教師型学習アプローチである。
既存の最先端の自己教師型学習手法と比較して,CASSのトレーニング済みCNNを実証的に示し,トランスフォーマーは100%ラベル付きデータで平均8.5%を得た。
論文 参考訳(メタデータ) (2022-06-08T21:25:15Z) - Unsupervised Domain Adaptation with Contrastive Learning for OCT
Segmentation [49.59567529191423]
本稿では,新しい未ラベル領域からのボリューム画像のセグメンテーションのための,新しい半教師付き学習フレームワークを提案する。
教師付き学習とコントラスト学習を併用し、3次元の近傍スライス間の類似性を利用したコントラストペア方式を導入する。
論文 参考訳(メタデータ) (2022-03-07T19:02:26Z) - Hybrid guiding: A multi-resolution refinement approach for semantic
segmentation of gigapixel histopathological images [0.7490318169877296]
セマンティックセグメンテーションのための、H2G-Netと呼ばれるカスケード畳み込みニューラルネットワーク設計を提案する。
設計にはパッチワイズ方式による検出段階と、畳み込みオートエンコーダを用いた改良段階が含まれる。
最高の設計は90 WSIの独立したテストセットでDiceスコア0.933を達成した。
論文 参考訳(メタデータ) (2021-12-07T02:31:29Z) - Evaluating Transformer based Semantic Segmentation Networks for
Pathological Image Segmentation [2.7029872968576947]
病理は癌診断において重要な役割を担っている。
コンピュータ支援型病理画像解析において, 様々なCNNを用いた病理画像分割手法が開発されている。
Transformer Neural Network(Transformer)は、新たなディープラーニングパラダイムとして、画像全体にわたるグローバルな長距離依存関係をキャプチャする、ユニークなメリットを示している。
論文 参考訳(メタデータ) (2021-08-26T18:46:43Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z) - A Petri Dish for Histopathology Image Analysis [25.424907516487327]
ミニマリスト組織像解析データセット(MHIST)を導入する。
MHISTは3,152枚の大腸ポリープの固定サイズ画像のバイナリ分類データセットである。
MHISTは400MB未満のディスク空間を占めており、ResNet-18ベースラインは6分でMHISTに収束するように訓練することができる。
論文 参考訳(メタデータ) (2021-01-29T02:01:45Z) - A Generalized Deep Learning Framework for Whole-Slide Image Segmentation
and Analysis [0.20065923589074736]
病理組織分析は癌診断と予後における金の基準と考えられている。
深層学習に基づく技術は、さまざまな画像解析タスクにおいて、最先端の成果を提供している。
本稿では,病理組織像解析のためのディープラーニングベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-01T18:05:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。