論文の概要: Distill-SODA: Distilling Self-Supervised Vision Transformer for
Source-Free Open-Set Domain Adaptation in Computational Pathology
- arxiv url: http://arxiv.org/abs/2307.04596v2
- Date: Mon, 6 Nov 2023 11:59:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 21:52:39.905850
- Title: Distill-SODA: Distilling Self-Supervised Vision Transformer for
Source-Free Open-Set Domain Adaptation in Computational Pathology
- Title(参考訳): Distill-SODA:ソースフリーなオープンセットドメイン適応のための自己監督型視覚変換器
- Authors: Guillaume Vray, Devavrat Tomar, Behzad Bozorgtabar, Jean-Philippe
Thiran
- Abstract要約: スライド画像全体から手動の組織タイピングを減らすためには,計算病理モデルの開発が不可欠である。
本稿では,上記の課題に対処して,オープンソースフリーなオープンセットドメイン適応という現実的な設定を提案する。
提案手法は,事前学習したソースモデルをラベルなしのターゲットデータセットに適応させることに重点を置いている。
- 参考スコア(独自算出の注目度): 12.828728138651263
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Developing computational pathology models is essential for reducing manual
tissue typing from whole slide images, transferring knowledge from the source
domain to an unlabeled, shifted target domain, and identifying unseen
categories. We propose a practical setting by addressing the above-mentioned
challenges in one fell swoop, i.e., source-free open-set domain adaptation. Our
methodology focuses on adapting a pre-trained source model to an unlabeled
target dataset and encompasses both closed-set and open-set classes. Beyond
addressing the semantic shift of unknown classes, our framework also deals with
a covariate shift, which manifests as variations in color appearance between
source and target tissue samples. Our method hinges on distilling knowledge
from a self-supervised vision transformer (ViT), drawing guidance from either
robustly pre-trained transformer models or histopathology datasets, including
those from the target domain. In pursuit of this, we introduce a novel
style-based adversarial data augmentation, serving as hard positives for
self-training a ViT, resulting in highly contextualized embeddings. Following
this, we cluster semantically akin target images, with the source model
offering weak pseudo-labels, albeit with uncertain confidence. To enhance this
process, we present the closed-set affinity score (CSAS), aiming to correct the
confidence levels of these pseudo-labels and to calculate weighted class
prototypes within the contextualized embedding space. Our approach establishes
itself as state-of-the-art across three public histopathological datasets for
colorectal cancer assessment. Notably, our self-training method seamlessly
integrates with open-set detection methods, resulting in enhanced performance
in both closed-set and open-set recognition tasks.
- Abstract(参考訳): コンピュータ病理モデルの開発は、スライド画像全体から手動の組織タイピングを減らし、ソースドメインからラベルのないシフト対象ドメインに知識を伝達し、未知のカテゴリを特定するために不可欠である。
本稿では,上記の課題に対処して,オープンソースフリーなオープンセットドメイン適応という現実的な設定を提案する。
本手法は,未ラベルのターゲットデータセットに事前学習したソースモデルを適用することに焦点を当て,クローズドセットとオープンセットの両方を包含する。
未知のクラスのセマンティクスシフトに対処するだけでなく、我々のフレームワークでは、ソースとターゲットの組織サンプル間の色の変化として現れる共変量シフトも扱っています。
本手法は, 自己教師型視覚変換器(ViT)から知識を抽出し, 強靭に事前学習したトランスフォーマーモデルや, 対象領域からの知識を含む組織学的データセットからのガイダンスを抽出する。
そこで本研究では,ViTを自己学習する上でのハードポジティクスとして機能する,新しいスタイルに基づく逆データ拡張手法を提案する。
これに続いて、我々は、疑似ラベルが弱いソースモデルで、セマンティックに類似したターゲット画像をクラスタリングする。
このプロセスを強化するために、擬似ラベルの信頼度を補正し、文脈化された埋め込み空間内で重み付けされたクラスプロトタイプを計算することを目的とした閉集合親和性スコア(CSAS)を提案する。
本手法は,大腸癌評価のための3つの病理組織学的データセットの最先端として確立されている。
特に、我々の自己学習手法はオープンセット検出手法とシームレスに統合され、クローズドセットおよびオープンセット認識タスクの性能が向上する。
関連論文リスト
- Domain Adaptation for Medical Image Segmentation using
Transformation-Invariant Self-Training [7.738197566031678]
領域適応型変換不変自己学習(TI-ST)のための半教師付き学習戦略を提案する。
提案手法は,画素単位の擬似ラベルの信頼性を評価し,自己学習中の信頼できない検出をフィルタリングする。
論文 参考訳(メタデータ) (2023-07-31T13:42:56Z) - Self-Paced Learning for Open-Set Domain Adaptation [50.620824701934]
従来のドメイン適応手法は、ソースとターゲットドメインのクラスが同一であると仮定する。
オープンセットドメイン適応(OSDA)は、この制限に対処する。
そこで,本研究では,共通クラスと未知クラスを識別するための自己評価学習に基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-10T14:11:09Z) - A self-training framework for glaucoma grading in OCT B-scans [6.382852973055393]
そこで本研究では,OCT B-Scansを用いた緑内障検診のための自己学習型フレームワークを提案する。
2段階の学習手法は、最初のステップで生成された擬似ラベルを利用して、ターゲットドメイン上のトレーニングデータセットを拡大する。
提案する新しい緑内障特異的バックボーンは,遅延空間の埋め込み特性を改良するために,スキップ接続による残像と注意点のモジュールを導入している。
論文 参考訳(メタデータ) (2021-11-23T10:33:55Z) - Source-Free Domain Adaptive Fundus Image Segmentation with Denoised
Pseudo-Labeling [56.98020855107174]
ドメイン適応は通常、ソースドメインデータにアクセスして、ターゲットデータとのドメインアライメントのために配布情報を利用する必要があります。
多くの実世界のシナリオでは、プライバシの問題により、ターゲットドメインのモデル適応中にソースデータがアクセスできない場合がある。
本稿では,本問題に対する新たな擬似ラベル付け手法を提案する。
論文 参考訳(メタデータ) (2021-09-19T06:38:21Z) - Generative Self-training for Cross-domain Unsupervised Tagged-to-Cine
MRI Synthesis [10.636015177721635]
クロスドメイン画像合成のための連続値予測と回帰目標を用いた新たな自己学習フレームワークを提案する。
具体的には,疑似ラベルを不確実性マスクでフィルタリングし,実際のベイズ学習を用いて生成した画像の予測信頼度を定量化する。
論文 参考訳(メタデータ) (2021-06-23T16:19:00Z) - A Curriculum-style Self-training Approach for Source-Free Semantic Segmentation [91.13472029666312]
ソースフリーなドメイン適応型セマンティックセマンティックセグメンテーションのためのカリキュラムスタイルの自己学習手法を提案する。
提案手法は, ソースフリーなセマンティックセグメンテーションタスクにおいて, 合成-実-実-実-実-実-実-非実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実
論文 参考訳(メタデータ) (2021-06-22T10:21:39Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - TraND: Transferable Neighborhood Discovery for Unsupervised Cross-domain
Gait Recognition [77.77786072373942]
本稿では、教師なしクロスドメイン歩行認識のための領域ギャップを橋渡しするTransferable Neighborhood Discovery (TraND) フレームワークを提案する。
我々は、潜在空間におけるラベルなしサンプルの自信ある近傍を自動的に発見するために、エンドツーエンドのトレーニング可能なアプローチを設計する。
提案手法は,CASIA-BとOU-LPの2つの公開データセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-02-09T03:07:07Z) - Progressive Graph Learning for Open-Set Domain Adaptation [48.758366879597965]
ドメインシフトは、典型的にはソースとターゲットデータが異なる分布に従うときに発生する視覚認識の基本的な問題である。
本稿では、ターゲットデータにソースデータに存在しない追加のクラスを含むオープンセットドメインシフトのより現実的な問題に取り組む。
本稿では,その基礎となる条件シフトを抑制するために,エピソード学習を伴うグラフニューラルネットワークを統合したエンドツーエンドのプログレッシブグラフ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T09:10:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。