論文の概要: A comparative study between vision transformers and CNNs in digital
pathology
- arxiv url: http://arxiv.org/abs/2206.00389v1
- Date: Wed, 1 Jun 2022 10:41:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-02 20:34:55.592682
- Title: A comparative study between vision transformers and CNNs in digital
pathology
- Title(参考訳): デジタル病理学における視覚トランスフォーマーとcnnの比較研究
- Authors: Luca Deininger, Bernhard Stimpel, Anil Yuce, Samaneh
Abbasi-Sureshjani, Simon Sch\"onenberger, Paolo Ocampo, Konstanty Korski,
Fabien Gaire
- Abstract要約: 本研究は,4種類の組織を用いたデジタル病理像全体における腫瘍検出のための視覚変換器について検討する。
我々は、視覚変換器のDeiT-Tinyと最先端の畳み込みニューラルネットワークのResNet18を比較した。
その結果,ResNet18は腫瘍検出のための3種類の組織に対して,ResNet18よりも若干改善され,ResNet18は残りのタスクに対してわずかに改善された。
- 参考スコア(独自算出の注目度): 1.71601014035428
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, vision transformers were shown to be capable of outperforming
convolutional neural networks when pretrained on sufficient amounts of data. In
comparison to convolutional neural networks, vision transformers have a weaker
inductive bias and therefore allow a more flexible feature detection. Due to
their promising feature detection, this work explores vision transformers for
tumor detection in digital pathology whole slide images in four tissue types,
and for tissue type identification. We compared the patch-wise classification
performance of the vision transformer DeiT-Tiny to the state-of-the-art
convolutional neural network ResNet18. Due to the sparse availability of
annotated whole slide images, we further compared both models pretrained on
large amounts of unlabeled whole-slide images using state-of-the-art
self-supervised approaches. The results show that the vision transformer
performed slightly better than the ResNet18 for three of four tissue types for
tumor detection while the ResNet18 performed slightly better for the remaining
tasks. The aggregated predictions of both models on slide level were
correlated, indicating that the models captured similar imaging features. All
together, the vision transformer models performed on par with the ResNet18
while requiring more effort to train. In order to surpass the performance of
convolutional neural networks, vision transformers might require more
challenging tasks to benefit from their weak inductive bias.
- Abstract(参考訳): 近年、視覚トランスフォーマーは、十分な量のデータで事前学習した場合、畳み込みニューラルネットワークを上回ることができることが示されている。
畳み込みニューラルネットワークと比較して、視覚トランスフォーマーは誘導バイアスが弱いため、より柔軟な特徴検出を可能にする。
本研究は, 将来性のある特徴検出のため, スライド画像の4種類の組織像と組織型同定のための視覚トランスフォーマーについて検討する。
視覚変換器DeiT-Tinyのパッチワイド分類性能を最先端の畳み込みニューラルネットワークResNet18と比較した。
注釈付き全スライダー画像の可利用性が低かったため,最先端の自己教師付きアプローチを用いて,ラベルなしの全スライダー画像に事前学習した2つのモデルを比較した。
その結果, resnet18は腫瘍検出のための4つの組織タイプのうち3つにおいて, resnet18よりもわずかに優れており, resnet18は残りの作業に対してわずかに優れた性能を示した。
その結果,両モデルともスライドレベルでの予測値が相関し,類似した撮像特性が得られた。
総じてビジョントランスフォーマーはresnet18と同等の性能を発揮し、訓練により多くの労力を要した。
畳み込みニューラルネットワークの性能を上回るために、視覚変換器は弱い帰納バイアスの恩恵を受けるために、より困難なタスクを必要とするかもしれない。
関連論文リスト
- Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Image Deblurring by Exploring In-depth Properties of Transformer [86.7039249037193]
我々は、事前訓練された視覚変換器(ViT)から抽出した深い特徴を活用し、定量的な測定値によって測定された性能を犠牲にすることなく、回復した画像のシャープ化を促進する。
得られた画像と対象画像の変換器特徴を比較することにより、事前学習された変換器は、高解像度のぼやけた意味情報を提供する。
特徴をベクトルとみなし、抽出された画像から抽出された表現とユークリッド空間における対象表現との差を計算する。
論文 参考訳(メタデータ) (2023-03-24T14:14:25Z) - View-Disentangled Transformer for Brain Lesion Detection [50.4918615815066]
より正確な腫瘍検出のためのMRI特徴抽出のための新しいビューディペンタングル変換器を提案する。
まず, 3次元脳スキャンにおいて, 異なる位置の長距離相関を求める。
第二に、トランスフォーマーはスライス機能のスタックを複数の2Dビューとしてモデル化し、これらの機能をビュー・バイ・ビューとして拡張する。
第三に、提案したトランスモジュールをトランスのバックボーンに展開し、脳病変を取り巻く2D領域を効果的に検出する。
論文 参考訳(メタデータ) (2022-09-20T11:58:23Z) - Self-Supervised Vision Transformers Learn Visual Concepts in
Histopathology [5.164102666113966]
我々は、様々な弱い教師付きおよびパッチレベルのタスクに対する検証を行い、様々な自己教師付きモデルを訓練することにより、病理学における良い表現を探索する。
我々の重要な発見は、DINOベースの知識蒸留を用いたビジョントランスフォーマーが、組織像におけるデータ効率と解釈可能な特徴を学習できることを発見したことである。
論文 参考訳(メタデータ) (2022-03-01T16:14:41Z) - Feature-level augmentation to improve robustness of deep neural networks
to affine transformations [22.323625542814284]
最近の研究では、畳み込みニューラルネットワークは小さな画像変換に対してうまく一般化しないことが明らかになっている。
ニューラルアーキテクチャの中間層にデータ拡張を導入することを提案する。
このような変換に対処するニューラルネットワークの能力を開発する。
論文 参考訳(メタデータ) (2022-02-10T17:14:58Z) - Class-Aware Generative Adversarial Transformers for Medical Image
Segmentation [39.14169989603906]
医用画像セグメンテーションのための新規な生成逆変換器CA-GANformerを提案する。
まず、ピラミッド構造を利用してマルチスケール表現を構築し、マルチスケールのバリエーションを扱う。
次に、意味構造を持つオブジェクトの識別領域をよりよく学習するために、新しいクラス対応トランスフォーマーモジュールを設計する。
論文 参考訳(メタデータ) (2022-01-26T03:50:02Z) - AdaViT: Adaptive Vision Transformers for Efficient Image Recognition [78.07924262215181]
AdaViTは、パッチ、セルフアテンションヘッド、およびトランスフォーマーブロックを使用するための利用ポリシーを導出する適応フレームワークである。
本手法は,0.8%の精度で,最先端のビジョントランスに比べて2倍以上の効率向上を実現している。
論文 参考訳(メタデータ) (2021-11-30T18:57:02Z) - Evaluating Transformer based Semantic Segmentation Networks for
Pathological Image Segmentation [2.7029872968576947]
病理は癌診断において重要な役割を担っている。
コンピュータ支援型病理画像解析において, 様々なCNNを用いた病理画像分割手法が開発されている。
Transformer Neural Network(Transformer)は、新たなディープラーニングパラダイムとして、画像全体にわたるグローバルな長距離依存関係をキャプチャする、ユニークなメリットを示している。
論文 参考訳(メタデータ) (2021-08-26T18:46:43Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - Understanding Robustness of Transformers for Image Classification [34.51672491103555]
Vision Transformer (ViT)は画像分類のためにResNetsを抜いた。
Transformerアーキテクチャの詳細は、これらのネットワークが堅牢かどうかを疑問に思っている。
ViTモデルは、少なくともResNetが広範囲の摂動に匹敵するほど堅牢であることがわかった。
論文 参考訳(メタデータ) (2021-03-26T16:47:55Z) - A Survey on Visual Transformer [126.56860258176324]
Transformerは、主に自己認識機構に基づくディープニューラルネットワークの一種である。
本稿では、これらの視覚変換器モデルについて、異なるタスクで分類し、それらの利点と欠点を分析することでレビューする。
論文 参考訳(メタデータ) (2020-12-23T09:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。