論文の概要: Self-Supervised Representation Learning using Visual Field Expansion on
Digital Pathology
- arxiv url: http://arxiv.org/abs/2109.03299v1
- Date: Tue, 7 Sep 2021 19:20:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-09 13:39:00.528725
- Title: Self-Supervised Representation Learning using Visual Field Expansion on
Digital Pathology
- Title(参考訳): デジタル病理における視野拡張を用いた自己教師付き表現学習
- Authors: Joseph Boyd, Mykola Liashuha, Eric Deutsch, Nikos Paragios, Stergios
Christodoulidis, Maria Vakalopoulou
- Abstract要約: このような画像を分析する上で重要な課題は、そのサイズであり、そのサイズはギガピクセルに収まる。
本稿では,このようなタイルの強力な表現を学習し,視界を確実に拡張する新しい生成フレームワークを提案する。
我々のモデルは、異なる臨床エンドポイントに使用できる強力な表現を同時に学習しながら、細部で異なる組織タイプを生成することを学習する。
- 参考スコア(独自算出の注目度): 7.568373895297608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The examination of histopathology images is considered to be the gold
standard for the diagnosis and stratification of cancer patients. A key
challenge in the analysis of such images is their size, which can run into the
gigapixels and can require tedious screening by clinicians. With the recent
advances in computational medicine, automatic tools have been proposed to
assist clinicians in their everyday practice. Such tools typically process
these large images by slicing them into tiles that can then be encoded and
utilized for different clinical models. In this study, we propose a novel
generative framework that can learn powerful representations for such tiles by
learning to plausibly expand their visual field. In particular, we developed a
progressively grown generative model with the objective of visual field
expansion. Thus trained, our model learns to generate different tissue types
with fine details, while simultaneously learning powerful representations that
can be used for different clinical endpoints, all in a self-supervised way. To
evaluate the performance of our model, we conducted classification experiments
on CAMELYON17 and CRC benchmark datasets, comparing favorably to other
self-supervised and pre-trained strategies that are commonly used in digital
pathology. Our code is available at https://github.com/jcboyd/cdpath21-gan.
- Abstract(参考訳): 病理組織像の検査は、がん患者の診断と成層化のための金の基準と考えられている。
このような画像の分析における重要な課題は、その大きさであり、ギガピクセルに収まることができ、臨床医による退屈なスクリーニングを必要とする。
近年の計算医学の進歩により,臨床医の日常的実践を支援する自動ツールが提案されている。
このようなツールは通常、これらの大きな画像をタイルにスライスして処理し、それをエンコードして異なる臨床モデルに利用する。
本研究では,このようなタイルの強力な表現を学習し,視界を確実に拡張する新しい生成フレームワークを提案する。
特に,視野拡大を目的とした,段階的に成長する生成モデルを開発した。
このようにトレーニングされたモデルでは,異なる組織タイプを細部で生成すると同時に,異なる臨床エンドポイントに使用可能な強力な表現を,すべて自己管理的に学習する。
CAMELYON17およびCRCベンチマークデータセットの分類実験を行い、デジタル病理学で一般的に用いられている他の自己監督型・事前訓練型戦略と比較した。
私たちのコードはhttps://github.com/jcboyd/cdpath21-ganで利用可能です。
関連論文リスト
- Autoregressive Sequence Modeling for 3D Medical Image Representation [48.706230961589924]
本稿では, 自己回帰シーケンス事前学習フレームワークを用いて, 3次元医用画像表現を学習するための先駆的手法を提案する。
我々は,空間的,コントラスト的,意味的相関に基づく様々な3次元医用画像にアプローチし,トークンシーケンス内の相互接続された視覚トークンとして扱う。
論文 参考訳(メタデータ) (2024-09-13T10:19:10Z) - Benchmarking Embedding Aggregation Methods in Computational Pathology: A Clinical Data Perspective [32.93871326428446]
人工知能(AI)の最近の進歩は、医療画像と計算病理に革命をもたらしている。
デジタル全スライド画像(WSI)の解析における一定の課題は、何万ものタイルレベルの画像埋め込みをスライドレベルの表現に集約する問題である。
本研究は,9つの臨床的課題を対象とした10種類のスライドレベルのアグリゲーション手法のベンチマーク分析を行った。
論文 参考訳(メタデータ) (2024-07-10T17:00:57Z) - Domain Generalization for Mammographic Image Analysis with Contrastive
Learning [62.25104935889111]
効果的なディープラーニングモデルのトレーニングには、さまざまなスタイルと品質を備えた大規模なデータが必要である。
より優れたスタイルの一般化能力を備えた深層学習モデルを実現するために,新しいコントラスト学習法が開発された。
提案手法は,様々なベンダスタイルドメインのマンモグラムや,いくつかのパブリックデータセットを用いて,広範囲かつ厳密に評価されている。
論文 参考訳(メタデータ) (2023-04-20T11:40:21Z) - Pixel-Level Explanation of Multiple Instance Learning Models in
Biomedical Single Cell Images [52.527733226555206]
複数のインスタンス学習モデルを説明するための4つの属性法について検討する。
急性骨髄性白血病の2つのデータセットと100万以上の単細胞画像について検討した。
我々は、属性マップと医療専門家の注釈を比較し、モデルの意思決定が人間の基準とどのように異なるかを確認する。
論文 参考訳(メタデータ) (2023-03-15T14:00:11Z) - Deepfake histological images for enhancing digital pathology [0.40631409309544836]
我々は,クラスラベルに制約された病理像を合成する生成逆ネットワークモデルを開発した。
前立腺および大腸組織像の合成におけるこの枠組みの有用性について検討した。
大腸生検によるより複雑な画像へのアプローチを拡張し,そのような組織における複雑な微小環境も再現可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T17:11:08Z) - Global Contrast Masked Autoencoders Are Powerful Pathological
Representation Learners [11.162001837248166]
本稿では,自己教師付き学習モデルであるGCMAE(Global contrast-masked Autoencoder)を提案する。
GCMAEは3つの異なる疾患特異的ヘマトキシリンとエオシン(HE)染色された病理データセットを用いて、広範囲にわたる実験により、再現性のある表現を学習する能力を示した。
論文 参考訳(メタデータ) (2022-05-18T16:28:56Z) - Self-Supervised Vision Transformers Learn Visual Concepts in
Histopathology [5.164102666113966]
我々は、様々な弱い教師付きおよびパッチレベルのタスクに対する検証を行い、様々な自己教師付きモデルを訓練することにより、病理学における良い表現を探索する。
我々の重要な発見は、DINOベースの知識蒸留を用いたビジョントランスフォーマーが、組織像におけるデータ効率と解釈可能な特徴を学習できることを発見したことである。
論文 参考訳(メタデータ) (2022-03-01T16:14:41Z) - Pathological Analysis of Blood Cells Using Deep Learning Techniques [0.0]
血液細胞像を様々なカテゴリに分類するニューラルネットワークが提案されている。
提案したモデルの性能は、既存の標準アーキテクチャよりも優れており、様々な研究者によってなされている。
論文 参考訳(メタデータ) (2021-11-05T05:37:10Z) - Colorectal Polyp Classification from White-light Colonoscopy Images via
Domain Alignment [57.419727894848485]
大腸内視鏡画像からの正確な診断を支援するためには,コンピュータ支援診断システムが必要である。
これまでのほとんどの研究では、Narrow-Band Imaging (NBI) や他の拡張画像を用いて、ポリプの分化モデルの開発を試みている。
正確な大腸ポリープ分類のための教師/学生アーキテクチャに基づく新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-08-05T09:31:46Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Weakly supervised multiple instance learning histopathological tumor
segmentation [51.085268272912415]
スライド画像全体のセグメント化のための弱教師付きフレームワークを提案する。
トレーニングモデルに複数のインスタンス学習スキームを利用する。
提案するフレームワークは,The Cancer Genome AtlasとPatchCamelyonデータセットのマルチロケーションとマルチ中心公開データに基づいて評価されている。
論文 参考訳(メタデータ) (2020-04-10T13:12:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。