論文の概要: Handcrafted Histological Transformer (H2T): Unsupervised Representation
of Whole Slide Images
- arxiv url: http://arxiv.org/abs/2202.07001v1
- Date: Mon, 14 Feb 2022 19:40:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 15:51:46.303285
- Title: Handcrafted Histological Transformer (H2T): Unsupervised Representation
of Whole Slide Images
- Title(参考訳): ハンドクラフト組織変換器(H2T):全スライド画像の教師なし表現
- Authors: Quoc Dang Vu, Kashif Rajpoot, Shan E Ahmed Raza, Nasir Rajpoot
- Abstract要約: 本稿では,総合的なWSIレベルの表現を構築するために,深層CNNに基づく手作りのフレームワークを提案する。
合計5,306個のWSIからなる各種データセットに関する実験から,H2Tに基づく総合的なWSIレベルの表現が競合性能を提供することを示す。
- 参考スコア(独自算出の注目度): 2.1038149964646347
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Diagnostic, prognostic and therapeutic decision-making of cancer in pathology
clinics can now be carried out based on analysis of multi-gigapixel tissue
images, also known as whole-slide images (WSIs). Recently, deep convolutional
neural networks (CNNs) have been proposed to derive unsupervised WSI
representations; these are attractive as they rely less on expert annotation
which is cumbersome. However, a major trade-off is that higher predictive power
generally comes at the cost of interpretability, posing a challenge to their
clinical use where transparency in decision-making is generally expected. To
address this challenge, we present a handcrafted framework based on deep CNN
for constructing holistic WSI-level representations. Building on recent
findings about the internal working of the Transformer in the domain of natural
language processing, we break down its processes and handcraft them into a more
transparent framework that we term as the Handcrafted Histological Transformer
or H2T. Based on our experiments involving various datasets consisting of a
total of 5,306 WSIs, the results demonstrate that H2T based holistic WSI-level
representations offer competitive performance compared to recent
state-of-the-art methods and can be readily utilized for various downstream
analysis tasks. Finally, our results demonstrate that the H2T framework can be
up to 14 times faster than the Transformer models.
- Abstract(参考訳): 病理診療所におけるがんの診断・予後・治療決定は、多ギガピクセルの組織像、あるいは全スライディング画像(英語版)(WSIs)の分析に基づいて行うことができる。
近年、深層畳み込みニューラルネットワーク (deep convolutional neural networks, cnns) が、教師なしのwsi表現を導出するために提案されている。
しかし、大きなトレードオフは、高い予測力は一般的に解釈可能性の犠牲を伴い、意思決定における透明性が一般的に期待される臨床利用に挑戦していることである。
この課題に対処するため、我々は、総合的なWSIレベルの表現を構築するためのディープCNNに基づく手作りのフレームワークを提案する。
自然言語処理領域におけるトランスフォーマーの内部作業に関する最近の知見に基づき、その過程を分解し、より透明な枠組みにハンドクラフトし、ハンドクラフトされた組織学的トランスフォーマー(h2t)と呼ぶ。
合計5,306 wsisからなる各種データセットを用いた実験の結果,h2tベースの全体的wsiレベル表現は,最新の最先端手法と比較して競争力のある性能を示し,下流解析タスクに容易に利用できることを示した。
最後に、我々の結果は、H2TフレームワークがTransformerモデルよりも最大14倍高速であることを示す。
関連論文リスト
- CWT-Net: Super-resolution of Histopathology Images Using a Cross-scale Wavelet-based Transformer [15.930878163092983]
超解像(SR)は低解像度画像の品質を高めることを目的としており、医用画像に広く応用されている。
我々は,画像ウェーブレット変換とトランスフォーマーアーキテクチャを利用した,CWT-Netと呼ばれる新しいネットワークを提案する。
本モデルは, 性能評価と可視化評価において, 最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-09-11T08:26:28Z) - A Comparative Study of CNN, ResNet, and Vision Transformers for Multi-Classification of Chest Diseases [0.0]
ビジョントランスフォーマー(ViT)は、そのスケーラビリティと大量のデータを処理する能力のため、強力なツールである。
NIH Chest X-rayデータセットを用いて、ImageNetで事前トレーニングされたモデルと、スクラッチからトレーニングされたモデルである2種類のViTモデルを微調整した。
本研究は,14の異なる疾患の多ラベル分類において,これらのモデルの性能を評価するものである。
論文 参考訳(メタデータ) (2024-05-31T23:56:42Z) - Deep models for stroke segmentation: do complex architectures always perform better? [1.4651272514940197]
ストロークセグメンテーションは脳卒中患者の診断と治療において重要な役割を担っている。
一般的な医用画像分割のためのディープモデルが導入された。
本研究では,最近提案された4種類の深部モデルを選択し,脳卒中セグメンテーションの性能評価を行った。
論文 参考訳(メタデータ) (2024-03-25T20:44:01Z) - A self-supervised framework for learning whole slide representations [52.774822784847565]
我々は、全スライド画像のギガピクセルスケールの自己スーパービジョンのためのSlide Pre-trained Transformer (SPT)を提案する。
バイオメディカル・マイクロスコープ・データセットを用いて,5つの診断課題におけるSPT視覚表現のベンチマークを行った。
論文 参考訳(メタデータ) (2024-02-09T05:05:28Z) - ViT-DAE: Transformer-driven Diffusion Autoencoder for Histopathology
Image Analysis [4.724009208755395]
高品質な病理画像合成のための視覚変換器(ViT)と拡散オートエンコーダを統合したViT-DAEを提案する。
提案手法は, 実写画像生成におけるGAN法とバニラDAE法より優れている。
論文 参考訳(メタデータ) (2023-04-03T15:00:06Z) - Unsupervised Domain Transfer with Conditional Invertible Neural Networks [83.90291882730925]
条件付き可逆ニューラルネットワーク(cINN)に基づくドメイン転送手法を提案する。
提案手法は本質的に,その可逆的アーキテクチャによるサイクル一貫性を保証し,ネットワークトレーニングを最大限効率的に行うことができる。
提案手法は,2つの下流分類タスクにおいて,現実的なスペクトルデータの生成を可能にし,その性能を向上する。
論文 参考訳(メタデータ) (2023-03-17T18:00:27Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - MedSegDiff-V2: Diffusion based Medical Image Segmentation with
Transformer [53.575573940055335]
我々は、MedSegDiff-V2と呼ばれるトランスフォーマーベースの拡散フレームワークを提案する。
画像の異なる20種類の画像分割作業において,その有効性を検証する。
論文 参考訳(メタデータ) (2023-01-19T03:42:36Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。