論文の概要: Self-Supervised Vision Transformers Learn Visual Concepts in
Histopathology
- arxiv url: http://arxiv.org/abs/2203.00585v1
- Date: Tue, 1 Mar 2022 16:14:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 15:48:56.741997
- Title: Self-Supervised Vision Transformers Learn Visual Concepts in
Histopathology
- Title(参考訳): 自己監督型視覚変換器は病理学で視覚概念を学ぶ
- Authors: Richard J. Chen, Rahul G. Krishnan
- Abstract要約: 我々は、様々な弱い教師付きおよびパッチレベルのタスクに対する検証を行い、様々な自己教師付きモデルを訓練することにより、病理学における良い表現を探索する。
我々の重要な発見は、DINOベースの知識蒸留を用いたビジョントランスフォーマーが、組織像におけるデータ効率と解釈可能な特徴を学習できることを発見したことである。
- 参考スコア(独自算出の注目度): 5.164102666113966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tissue phenotyping is a fundamental task in learning objective
characterizations of histopathologic biomarkers within the tumor-immune
microenvironment in cancer pathology. However, whole-slide imaging (WSI) is a
complex computer vision in which: 1) WSIs have enormous image resolutions with
precludes large-scale pixel-level efforts in data curation, and 2) diversity of
morphological phenotypes results in inter- and intra-observer variability in
tissue labeling. To address these limitations, current efforts have proposed
using pretrained image encoders (transfer learning from ImageNet,
self-supervised pretraining) in extracting morphological features from
pathology, but have not been extensively validated. In this work, we conduct a
search for good representations in pathology by training a variety of
self-supervised models with validation on a variety of weakly-supervised and
patch-level tasks. Our key finding is in discovering that Vision Transformers
using DINO-based knowledge distillation are able to learn data-efficient and
interpretable features in histology images wherein the different attention
heads learn distinct morphological phenotypes. We make evaluation code and
pretrained weights publicly-available at:
https://github.com/Richarizardd/Self-Supervised-ViT-Path.
- Abstract(参考訳): 組織表現型は、癌病理における腫瘍免疫マイクロ環境における病理組織学的バイオマーカーの客観的特徴を学ぶための基本的な課題である。
しかし、全スライディングイメージング(WSI)は複雑なコンピュータビジョンである。
1)WSIは、データキュレーションにおける大規模ピクセルレベルの取り組みを妨げ、膨大な画像解像度を有する。
2) 形態学的表現型の多様性は, 組織ラベリングにおける生体内および生体内変動をもたらす。
これらの限界に対処するために, 画像エンコーダ(画像ネットからの転送学習, 自己教師付き事前学習)を用いて病理から形態的特徴を抽出する試みが提案されているが, 広く検証されていない。
本研究では,様々な弱教師付きおよびパッチレベルのタスクを検証しながら,様々な自己教師付きモデルを訓練することにより,病理学における良好な表現の探索を行う。
私たちの重要な発見は、ディノベースの知識蒸留を用いた視覚トランスフォーマーが、異なる注意頭が異なる形態的表現型を学ぶヒストロジー画像において、データ効率と解釈可能な特徴を学習できることを発見したことです。
評価コードと事前トレーニングされたウェイトは、https://github.com/Richarizardd/Self-Supervised-ViT-Pathで公開しています。
関連論文リスト
- Progressive Retinal Image Registration via Global and Local Deformable Transformations [49.032894312826244]
我々はHybridRetinaと呼ばれるハイブリッド登録フレームワークを提案する。
キーポイント検出器とGAMorphと呼ばれる変形ネットワークを用いて、大域的な変換と局所的な変形可能な変換を推定する。
FIREとFLoRI21という2つの広く使われているデータセットの実験により、提案したHybridRetinaは最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2024-09-02T08:43:50Z) - Advancing Medical Image Segmentation: Morphology-Driven Learning with Diffusion Transformer [4.672688418357066]
本稿では,雑音の存在下での頑健なセグメンテーションのためのトランスフォーマー拡散(DTS)モデルを提案する。
画像の形態的表現を解析する本モデルでは, 種々の医用画像モダリティにおいて, 従来のモデルよりも良好な結果が得られた。
論文 参考訳(メタデータ) (2024-08-01T07:35:54Z) - GPC: Generative and General Pathology Image Classifier [2.6954348706500766]
本稿では,GPCと呼ばれるタスク依存型画像分類器を提案する。
GPCは、病理画像を高次元の特徴空間にマッピングし、テキストとして関連するクラスラベルを生成する。
我々は,4つの病理画像分類タスクに対して,GPCを6つのデータセットで評価した。
論文 参考訳(メタデータ) (2024-07-12T06:54:31Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Towards a Visual-Language Foundation Model for Computational Pathology [5.72536252929528]
病理組織学(CONCH)におけるコントラスト学習について紹介する。
CONCHは、様々な組織像、生医学的テキスト、タスクに依存しない事前トレーニングのソースを用いて開発された視覚言語基盤モデルである。
13種類の多様なベンチマークで評価され, 画像分類, セグメンテーション, キャプション, テキスト・ツー・イメージ検索, 画像・テキスト検索における最先端のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2023-07-24T16:13:43Z) - Deepfake histological images for enhancing digital pathology [0.40631409309544836]
我々は,クラスラベルに制約された病理像を合成する生成逆ネットワークモデルを開発した。
前立腺および大腸組織像の合成におけるこの枠組みの有用性について検討した。
大腸生検によるより複雑な画像へのアプローチを拡張し,そのような組織における複雑な微小環境も再現可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T17:11:08Z) - Learning multi-scale functional representations of proteins from
single-cell microscopy data [77.34726150561087]
局所化分類に基づいて訓練された単純な畳み込みネットワークは、多様な機能情報をカプセル化したタンパク質表現を学習できることを示す。
また,生物機能の異なるスケールでタンパク質表現の質を評価するためのロバストな評価戦略を提案する。
論文 参考訳(メタデータ) (2022-05-24T00:00:07Z) - Intelligent Masking: Deep Q-Learning for Context Encoding in Medical
Image Analysis [48.02011627390706]
我々は,対象地域を排除し,事前訓練の手順を改善する,新たな自己指導型アプローチを開発した。
予測モデルに対してエージェントを訓練することで、下流の分類タスクで抽出した意味的特徴を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-03-25T19:05:06Z) - Learning domain-agnostic visual representation for computational
pathology using medically-irrelevant style transfer augmentation [4.538771844947821]
STRAP(Style TRansfer Augmentation for histoPathology)は、芸術絵画からのランダムなスタイル移行に基づくデータ拡張の一形態である。
スタイル転送は、画像の低レベルのテクスチャ内容をランダムに選択された芸術絵画の非形式的なスタイルに置き換える。
STRAPが最先端のパフォーマンス、特にドメインシフトの存在につながることを実証する。
論文 参考訳(メタデータ) (2021-02-02T18:50:16Z) - Deep Low-Shot Learning for Biological Image Classification and
Visualization from Limited Training Samples [52.549928980694695]
In situ hybridization (ISH) gene expression pattern image from the same developmental stage。
正確な段階のトレーニングデータをラベル付けするのは、生物学者にとっても非常に時間がかかる。
限られた訓練画像を用いてISH画像を正確に分類する2段階の低ショット学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T06:06:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。