論文の概要: Self-Supervised Vision Transformers Learn Visual Concepts in
Histopathology
- arxiv url: http://arxiv.org/abs/2203.00585v1
- Date: Tue, 1 Mar 2022 16:14:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 15:48:56.741997
- Title: Self-Supervised Vision Transformers Learn Visual Concepts in
Histopathology
- Title(参考訳): 自己監督型視覚変換器は病理学で視覚概念を学ぶ
- Authors: Richard J. Chen, Rahul G. Krishnan
- Abstract要約: 我々は、様々な弱い教師付きおよびパッチレベルのタスクに対する検証を行い、様々な自己教師付きモデルを訓練することにより、病理学における良い表現を探索する。
我々の重要な発見は、DINOベースの知識蒸留を用いたビジョントランスフォーマーが、組織像におけるデータ効率と解釈可能な特徴を学習できることを発見したことである。
- 参考スコア(独自算出の注目度): 5.164102666113966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tissue phenotyping is a fundamental task in learning objective
characterizations of histopathologic biomarkers within the tumor-immune
microenvironment in cancer pathology. However, whole-slide imaging (WSI) is a
complex computer vision in which: 1) WSIs have enormous image resolutions with
precludes large-scale pixel-level efforts in data curation, and 2) diversity of
morphological phenotypes results in inter- and intra-observer variability in
tissue labeling. To address these limitations, current efforts have proposed
using pretrained image encoders (transfer learning from ImageNet,
self-supervised pretraining) in extracting morphological features from
pathology, but have not been extensively validated. In this work, we conduct a
search for good representations in pathology by training a variety of
self-supervised models with validation on a variety of weakly-supervised and
patch-level tasks. Our key finding is in discovering that Vision Transformers
using DINO-based knowledge distillation are able to learn data-efficient and
interpretable features in histology images wherein the different attention
heads learn distinct morphological phenotypes. We make evaluation code and
pretrained weights publicly-available at:
https://github.com/Richarizardd/Self-Supervised-ViT-Path.
- Abstract(参考訳): 組織表現型は、癌病理における腫瘍免疫マイクロ環境における病理組織学的バイオマーカーの客観的特徴を学ぶための基本的な課題である。
しかし、全スライディングイメージング(WSI)は複雑なコンピュータビジョンである。
1)WSIは、データキュレーションにおける大規模ピクセルレベルの取り組みを妨げ、膨大な画像解像度を有する。
2) 形態学的表現型の多様性は, 組織ラベリングにおける生体内および生体内変動をもたらす。
これらの限界に対処するために, 画像エンコーダ(画像ネットからの転送学習, 自己教師付き事前学習)を用いて病理から形態的特徴を抽出する試みが提案されているが, 広く検証されていない。
本研究では,様々な弱教師付きおよびパッチレベルのタスクを検証しながら,様々な自己教師付きモデルを訓練することにより,病理学における良好な表現の探索を行う。
私たちの重要な発見は、ディノベースの知識蒸留を用いた視覚トランスフォーマーが、異なる注意頭が異なる形態的表現型を学ぶヒストロジー画像において、データ効率と解釈可能な特徴を学習できることを発見したことです。
評価コードと事前トレーニングされたウェイトは、https://github.com/Richarizardd/Self-Supervised-ViT-Pathで公開しています。
関連論文リスト
- Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Towards a Visual-Language Foundation Model for Computational Pathology [5.72536252929528]
病理組織学(CONCH)におけるコントラスト学習について紹介する。
CONCHは、様々な組織像、生医学的テキスト、タスクに依存しない事前トレーニングのソースを用いて開発された視覚言語基盤モデルである。
13種類の多様なベンチマークで評価され, 画像分類, セグメンテーション, キャプション, テキスト・ツー・イメージ検索, 画像・テキスト検索における最先端のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2023-07-24T16:13:43Z) - GraVIS: Grouping Augmented Views from Independent Sources for
Dermatology Analysis [52.04899592688968]
皮膚科画像から自己教師付き特徴を学習するために特に最適化されたGraVISを提案する。
GraVISは、病変のセグメンテーションと疾患分類のタスクにおいて、転送学習と自己教師型学習を著しく上回っている。
論文 参考訳(メタデータ) (2023-01-11T11:38:37Z) - Few-Shot Meta Learning for Recognizing Facial Phenotypes of Genetic
Disorders [55.41644538483948]
分類の自動化と類似性検索は、医師が可能な限り早期に遺伝状態の診断を行うための意思決定を支援する。
従来の研究は分類問題としてこの問題に対処し、深層学習法を用いてきた。
本研究では,健常人の大規模なコーパスで訓練した顔認識モデルを用いて,顔の表情認識に移行した。
論文 参考訳(メタデータ) (2022-10-23T11:52:57Z) - Deepfake histological images for enhancing digital pathology [0.40631409309544836]
我々は,クラスラベルに制約された病理像を合成する生成逆ネットワークモデルを開発した。
前立腺および大腸組織像の合成におけるこの枠組みの有用性について検討した。
大腸生検によるより複雑な画像へのアプローチを拡張し,そのような組織における複雑な微小環境も再現可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T17:11:08Z) - Learning multi-scale functional representations of proteins from
single-cell microscopy data [77.34726150561087]
局所化分類に基づいて訓練された単純な畳み込みネットワークは、多様な機能情報をカプセル化したタンパク質表現を学習できることを示す。
また,生物機能の異なるスケールでタンパク質表現の質を評価するためのロバストな評価戦略を提案する。
論文 参考訳(メタデータ) (2022-05-24T00:00:07Z) - Self-Supervised Representation Learning using Visual Field Expansion on
Digital Pathology [7.568373895297608]
このような画像を分析する上で重要な課題は、そのサイズであり、そのサイズはギガピクセルに収まる。
本稿では,このようなタイルの強力な表現を学習し,視界を確実に拡張する新しい生成フレームワークを提案する。
我々のモデルは、異なる臨床エンドポイントに使用できる強力な表現を同時に学習しながら、細部で異なる組織タイプを生成することを学習する。
論文 参考訳(メタデータ) (2021-09-07T19:20:01Z) - Learning domain-agnostic visual representation for computational
pathology using medically-irrelevant style transfer augmentation [4.538771844947821]
STRAP(Style TRansfer Augmentation for histoPathology)は、芸術絵画からのランダムなスタイル移行に基づくデータ拡張の一形態である。
スタイル転送は、画像の低レベルのテクスチャ内容をランダムに選択された芸術絵画の非形式的なスタイルに置き換える。
STRAPが最先端のパフォーマンス、特にドメインシフトの存在につながることを実証する。
論文 参考訳(メタデータ) (2021-02-02T18:50:16Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Blind deblurring for microscopic pathology images using deep learning
networks [0.0]
顕微鏡画像のデフォーカスや動きのぼかしを軽減できるディープラーニングベースのアプローチを実証する。
ぼやけたタイプ、ぼやけた範囲、病理染色を事前に知ることなく、より鮮明できめ細かな画像が得られる。
そこで我々は, 画像のぼかし補正とAIアルゴリズムの診断結果の改善に優れた性能を示した。
論文 参考訳(メタデータ) (2020-11-24T03:52:45Z) - Deep Low-Shot Learning for Biological Image Classification and
Visualization from Limited Training Samples [52.549928980694695]
In situ hybridization (ISH) gene expression pattern image from the same developmental stage。
正確な段階のトレーニングデータをラベル付けするのは、生物学者にとっても非常に時間がかかる。
限られた訓練画像を用いてISH画像を正確に分類する2段階の低ショット学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T06:06:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。