論文の概要: Source-Free Open-Set Domain Adaptation for Histopathological Images via
Distilling Self-Supervised Vision Transformer
- arxiv url: http://arxiv.org/abs/2307.04596v1
- Date: Mon, 10 Jul 2023 14:36:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 12:53:59.605495
- Title: Source-Free Open-Set Domain Adaptation for Histopathological Images via
Distilling Self-Supervised Vision Transformer
- Title(参考訳): 自己監督型視覚変換器による病理画像のソースフリーオープンセット領域適応
- Authors: Guillaume Vray, Devavrat Tomar, Behzad Bozorgtabar, Jean-Philippe
Thiran
- Abstract要約: アクセス不能なソースデータセットに事前トレーニングされたモデルは、Open Setサンプルを含むラベル付けされていないターゲットデータセットに適応することができる。
本稿では,対象領域における視覚変換器の自己学習のためのハードポジトリとして,新しいスタイルベースのデータ拡張を提案する。
提案手法は, オープンセット検出, テスト時間適応, SF-OSDA法など, 従来の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 13.515566909672188
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: There is a strong incentive to develop computational pathology models to i)
ease the burden of tissue typology annotation from whole slide histological
images; ii) transfer knowledge, e.g., tissue class separability from the
withheld source domain to the distributionally shifted unlabeled target domain,
and simultaneously iii) detect Open Set samples, i.e., unseen novel categories
not present in the training source domain. This paper proposes a highly
practical setting by addressing the abovementioned challenges in one fell
swoop, i.e., source-free Open Set domain adaptation (SF-OSDA), which addresses
the situation where a model pre-trained on the inaccessible source dataset can
be adapted on the unlabeled target dataset containing Open Set samples. The
central tenet of our proposed method is distilling knowledge from a
self-supervised vision transformer trained in the target domain. We propose a
novel style-based data augmentation used as hard positives for self-training a
vision transformer in the target domain, yielding strongly contextualized
embedding. Subsequently, semantically similar target images are clustered while
the source model provides their corresponding weak pseudo-labels with
unreliable confidence. Furthermore, we propose cluster relative maximum logit
score (CRMLS) to rectify the confidence of the weak pseudo-labels and compute
weighted class prototypes in the contextualized embedding space that are
utilized for adapting the source model on the target domain. Our method
significantly outperforms the previous methods, including open set detection,
test-time adaptation, and SF-OSDA methods, setting the new state-of-the-art on
three public histopathological datasets of colorectal cancer (CRC) assessment-
Kather-16, Kather-19, and CRCTP. Our code is available at
https://github.com/LTS5/Proto-SF-OSDA.
- Abstract(参考訳): 計算病理モデルを開発するという 強い動機があります
一 スライド組織像全体から組織型別注釈の負担を緩和すること。
二 保持元ドメインから分布シフトした非ラベル対象ドメインへの組織クラス分離可能性等の移転知識を同時に行うこと。
iii) オープンセットのサンプル、すなわち、トレーニングソースドメインに存在しない未発見の新規カテゴリを検出すること。
本稿では,オープンセットのサンプルを含むラベル付きターゲットデータセットに,アクセス不能なソースデータセット上で事前学習されたモデルを適用することができる,ソースフリーなオープンセットドメイン適応(SF-OSDA)について,上記の課題に対処して,極めて実用的な設定を提案する。
提案手法の中心は,対象領域で訓練された自己教師付き視覚トランスフォーマからの知識を蒸留することである。
本稿では,目標領域における視覚トランスフォーマーの自己学習にハードポジティブとして用いる新しいスタイルに基づくデータ拡張法を提案する。
その後、セマンティックに類似したターゲット画像がクラスタ化され、ソースモデルが対応する弱い擬似ラベルを信頼できない信頼性で提供する。
さらに,ターゲットドメインにソースモデルを適応させるのに使用されるコンテキスト化された埋め込み空間において,弱い擬似ラベルの信頼度を補正するクラスタ相対最大ロジットスコア(CRMLS)を提案する。
本手法は,大腸癌(crc)アセスメントkather-16,kather-19,crctpの3つの病理組織学的データセットにおいて,前例のオープンセット検出法,テスト時間適応法,sf-osda法を有意に上回っている。
私たちのコードはhttps://github.com/LTS5/Proto-SF-OSDAで公開されています。
関連論文リスト
- Domain Adaptation for Medical Image Segmentation using
Transformation-Invariant Self-Training [7.738197566031678]
領域適応型変換不変自己学習(TI-ST)のための半教師付き学習戦略を提案する。
提案手法は,画素単位の擬似ラベルの信頼性を評価し,自己学習中の信頼できない検出をフィルタリングする。
論文 参考訳(メタデータ) (2023-07-31T13:42:56Z) - Self-Paced Learning for Open-Set Domain Adaptation [50.620824701934]
従来のドメイン適応手法は、ソースとターゲットドメインのクラスが同一であると仮定する。
オープンセットドメイン適応(OSDA)は、この制限に対処する。
そこで,本研究では,共通クラスと未知クラスを識別するための自己評価学習に基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-10T14:11:09Z) - A self-training framework for glaucoma grading in OCT B-scans [6.382852973055393]
そこで本研究では,OCT B-Scansを用いた緑内障検診のための自己学習型フレームワークを提案する。
2段階の学習手法は、最初のステップで生成された擬似ラベルを利用して、ターゲットドメイン上のトレーニングデータセットを拡大する。
提案する新しい緑内障特異的バックボーンは,遅延空間の埋め込み特性を改良するために,スキップ接続による残像と注意点のモジュールを導入している。
論文 参考訳(メタデータ) (2021-11-23T10:33:55Z) - Source-Free Domain Adaptive Fundus Image Segmentation with Denoised
Pseudo-Labeling [56.98020855107174]
ドメイン適応は通常、ソースドメインデータにアクセスして、ターゲットデータとのドメインアライメントのために配布情報を利用する必要があります。
多くの実世界のシナリオでは、プライバシの問題により、ターゲットドメインのモデル適応中にソースデータがアクセスできない場合がある。
本稿では,本問題に対する新たな擬似ラベル付け手法を提案する。
論文 参考訳(メタデータ) (2021-09-19T06:38:21Z) - Generative Self-training for Cross-domain Unsupervised Tagged-to-Cine
MRI Synthesis [10.636015177721635]
クロスドメイン画像合成のための連続値予測と回帰目標を用いた新たな自己学習フレームワークを提案する。
具体的には,疑似ラベルを不確実性マスクでフィルタリングし,実際のベイズ学習を用いて生成した画像の予測信頼度を定量化する。
論文 参考訳(メタデータ) (2021-06-23T16:19:00Z) - A Curriculum-style Self-training Approach for Source-Free Semantic Segmentation [91.13472029666312]
ソースフリーなドメイン適応型セマンティックセマンティックセグメンテーションのためのカリキュラムスタイルの自己学習手法を提案する。
提案手法は, ソースフリーなセマンティックセグメンテーションタスクにおいて, 合成-実-実-実-実-実-実-非実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実
論文 参考訳(メタデータ) (2021-06-22T10:21:39Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - TraND: Transferable Neighborhood Discovery for Unsupervised Cross-domain
Gait Recognition [77.77786072373942]
本稿では、教師なしクロスドメイン歩行認識のための領域ギャップを橋渡しするTransferable Neighborhood Discovery (TraND) フレームワークを提案する。
我々は、潜在空間におけるラベルなしサンプルの自信ある近傍を自動的に発見するために、エンドツーエンドのトレーニング可能なアプローチを設計する。
提案手法は,CASIA-BとOU-LPの2つの公開データセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-02-09T03:07:07Z) - Progressive Graph Learning for Open-Set Domain Adaptation [48.758366879597965]
ドメインシフトは、典型的にはソースとターゲットデータが異なる分布に従うときに発生する視覚認識の基本的な問題である。
本稿では、ターゲットデータにソースデータに存在しない追加のクラスを含むオープンセットドメインシフトのより現実的な問題に取り組む。
本稿では,その基礎となる条件シフトを抑制するために,エピソード学習を伴うグラフニューラルネットワークを統合したエンドツーエンドのプログレッシブグラフ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T09:10:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。