論文の概要: Knowledge Transfer via Multi-Head Feature Adaptation for Whole Slide
Image Classification
- arxiv url: http://arxiv.org/abs/2303.05780v1
- Date: Fri, 10 Mar 2023 08:29:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-13 15:41:36.540249
- Title: Knowledge Transfer via Multi-Head Feature Adaptation for Whole Slide
Image Classification
- Title(参考訳): フルスライド画像分類のためのマルチヘッド特徴適応による知識伝達
- Authors: Conghao Xiong, Yi Lin, Hao Chen, Joseph Sung, Irwin King
- Abstract要約: ソースドメインから同一または類似のターゲットドメインへの事前知識の転送は、ターゲットドメイン上のモデルの性能を大幅に向上させる。
提案するマルチヘッド特徴適応モジュールは,特徴空間内の特徴を対象空間とより類似した新しい空間に投影する。
知識伝達モデルでは、データセット中のWSIの数に関係なく、スクラッチからトレーニングされたモデルよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 38.931261797069304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transferring prior knowledge from a source domain to the same or similar
target domain can greatly enhance the performance of models on the target
domain. However, it is challenging to directly leverage the knowledge from the
source domain due to task discrepancy and domain shift. To bridge the gaps
between different tasks and domains, we propose a Multi-Head Feature Adaptation
module, which projects features in the source feature space to a new space that
is more similar to the target space. Knowledge transfer is particularly
important in Whole Slide Image (WSI) classification since the number of WSIs in
one dataset might be too small to achieve satisfactory performance. Therefore,
WSI classification is an ideal testbed for our method, and we adapt multiple
knowledge transfer methods for WSI classification. The experimental results
show that models with knowledge transfer outperform models that are trained
from scratch by a large margin regardless of the number of WSIs in the
datasets, and our method achieves state-of-the-art performances among other
knowledge transfer methods on multiple datasets, including TCGA-RCC,
TCGA-NSCLC, and Camelyon16 datasets.
- Abstract(参考訳): ソースドメインから同一または類似のターゲットドメインへの事前知識の転送は、ターゲットドメイン上のモデルの性能を大幅に向上させる。
しかし、タスクの不一致とドメインシフトのため、ソースドメインからの知識を直接活用することは困難である。
異なるタスクとドメイン間のギャップを埋めるために、ソース機能空間の機能をターゲット空間とより類似した新しい空間に投影するマルチヘッド特徴適応モジュールを提案する。
知識伝達は、データセットのWSIの数が小さすぎるため、WSI(Whole Slide Image)分類において特に重要である。
したがって、wsi分類は、本手法の理想的なテストベッドであり、複数の知識伝達法をwsi分類に適用する。
実験結果から, データセットのWSI数によらず, ゼロから学習した知識伝達モデルの方が優れたモデルであることが示され, 提案手法は, TCGA-RCC, TCGA-NSCLC, Camelyon16データセットを含む複数のデータセット上での知識伝達手法の最先端性能を実現する。
関連論文リスト
- CDFSL-V: Cross-Domain Few-Shot Learning for Videos [58.37446811360741]
ビデオのアクション認識は、いくつかのラベル付き例でのみ、新しいカテゴリを認識するための効果的なアプローチである。
既存のビデオアクション認識の方法は、同じドメインからの大きなラベル付きデータセットに依存している。
本稿では,自己教師付き学習とカリキュラム学習を活用した,クロスドメインな数ショットビデオ行動認識手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T19:44:27Z) - Towards Estimating Transferability using Hard Subsets [25.86053764521497]
HASTEは、ターゲットデータのより厳しいサブセットのみを用いて、ソースモデルの特定のターゲットタスクへの転送可能性を推定する新しい戦略である。
HASTEは既存の転送可能性測定値と組み合わせて信頼性を向上させることができることを示す。
複数のソースモデルアーキテクチャ、ターゲットデータセット、トランスファー学習タスクにまたがる実験結果から、HASTEの修正されたメトリクスは、一貫して、あるいは、アートトランスファービリティーメトリクスの状態と同等であることが示された。
論文 参考訳(メタデータ) (2023-01-17T14:50:18Z) - Auto-Transfer: Learning to Route Transferrable Representations [77.30427535329571]
本稿では,適切なターゲット表現にソース表現をルートする方法を自動学習する,新しい対向型マルチアームバンディット手法を提案する。
最先端の知識伝達手法と比較すると,5%以上の精度向上が期待できる。
論文 参考訳(メタデータ) (2022-02-02T13:09:27Z) - Transferability Estimation using Bhattacharyya Class Separability [37.52588126267552]
トランスファーラーニング(Transfer Learning)は、コンピュータビジョンにおいて事前訓練されたモデルを活用する一般的な方法である。
特定の目標タスクに適した事前学習されたソースモデルを定量化することは困難である。
本稿では,ソースモデルとターゲットデータセット間の転送可能性の定量化手法を提案する。
論文 参考訳(メタデータ) (2021-11-24T20:22:28Z) - A self-training framework for glaucoma grading in OCT B-scans [6.382852973055393]
そこで本研究では,OCT B-Scansを用いた緑内障検診のための自己学習型フレームワークを提案する。
2段階の学習手法は、最初のステップで生成された擬似ラベルを利用して、ターゲットドメイン上のトレーニングデータセットを拡大する。
提案する新しい緑内障特異的バックボーンは,遅延空間の埋め込み特性を改良するために,スキップ接続による残像と注意点のモジュールを導入している。
論文 参考訳(メタデータ) (2021-11-23T10:33:55Z) - Dual-Teacher++: Exploiting Intra-domain and Inter-domain Knowledge with
Reliable Transfer for Cardiac Segmentation [69.09432302497116]
最先端の半教師付きドメイン適応フレームワークである Dual-Teacher++ を提案する。
ソースドメイン(MRなど)からのクロスモダリティ優先度を探索するドメイン間教師モデルと、ラベルのないターゲットドメインの知識を調査するドメイン内教師モデルを含む、新しいデュアル教師モデルを設計する。
このようにして、学生モデルは信頼できる二重ドメイン知識を得て、ターゲットドメインデータのパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2021-01-07T05:17:38Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z) - Minimax Lower Bounds for Transfer Learning with Linear and One-hidden
Layer Neural Networks [27.44348371795822]
転送学習の限界を特徴付けるための統計的ミニマックスフレームワークを開発する。
ラベル付きソース数とターゲットデータの関数として,任意のアルゴリズムで達成可能なターゲット一般化誤差に対して,低いバウンドを導出する。
論文 参考訳(メタデータ) (2020-06-16T22:49:26Z) - Unsupervised Transfer Learning with Self-Supervised Remedy [60.315835711438936]
手動ラベルのない新しいドメインにディープネットワークを一般化することは、ディープラーニングにとって難しい。
事前学習された知識は、学習されたドメインや新しいドメインについて強い仮定をしなければ、うまく伝達しない。
本研究は,ラベル付き関連ドメインからの知識伝達により,新規ドメインにおける未ラベル対象データの識別潜在空間を学習することを目的とする。
論文 参考訳(メタデータ) (2020-06-08T16:42:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。