論文の概要: HistoKT: Cross Knowledge Transfer in Computational Pathology
- arxiv url: http://arxiv.org/abs/2201.11246v1
- Date: Thu, 27 Jan 2022 00:34:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-28 14:56:13.522073
- Title: HistoKT: Cross Knowledge Transfer in Computational Pathology
- Title(参考訳): HistoKT:計算病理学におけるクロス知識伝達
- Authors: Ryan Zhang and Jiadai Zhu and Stephen Yang and Mahdi S. Hosseini and
Angelo Genovese and Lina Chen and Corwyn Rowsell and Savvas Damaskinos and
Sonal Varma and Konstantinos N. Plataniotis
- Abstract要約: CPath (Computer pathology) におけるよく注釈付けられたデータセットの欠如は、医学画像の分類にディープラーニング技術を適用することを妨げている。
ほとんどのトランスファーラーニング研究はモデル中心のアプローチに従っており、ネットワークパラメータをチューニングして、少数のデータセットでのトランスファー結果を改善する。
- 参考スコア(独自算出の注目度): 31.14107299224401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The lack of well-annotated datasets in computational pathology (CPath)
obstructs the application of deep learning techniques for classifying medical
images. %Since pathologist time is expensive, dataset curation is intrinsically
difficult. Many CPath workflows involve transferring learned knowledge between
various image domains through transfer learning. Currently, most transfer
learning research follows a model-centric approach, tuning network parameters
to improve transfer results over few datasets. In this paper, we take a
data-centric approach to the transfer learning problem and examine the
existence of generalizable knowledge between histopathological datasets. First,
we create a standardization workflow for aggregating existing histopathological
data. We then measure inter-domain knowledge by training ResNet18 models across
multiple histopathological datasets, and cross-transferring between them to
determine the quantity and quality of innate shared knowledge. Additionally, we
use weight distillation to share knowledge between models without additional
training. We find that hard to learn, multi-class datasets benefit most from
pretraining, and a two stage learning framework incorporating a large source
domain such as ImageNet allows for better utilization of smaller datasets.
Furthermore, we find that weight distillation enables models trained on purely
histopathological features to outperform models using external natural image
data.
- Abstract(参考訳): 計算病理学(cpath)における注釈付きデータセットの欠如は、医学画像の分類にディープラーニング技術を適用することを妨げている。
病理医の時間は高価であるため,データセットのキュレーションは本質的に困難である。
多くのcpathワークフローは、転送学習を通じて様々な画像ドメイン間で学習知識を転送する。
現在、ほとんどの転送学習研究はモデル中心のアプローチに従っており、ネットワークパラメータをチューニングして、少数のデータセットで転送結果を改善する。
本稿では,移動学習問題に対するデータ中心のアプローチと,組織学的データセット間の一般化可能な知識の存在について検討する。
まず,既存の病理組織データを集約するための標準化ワークフローを作成する。
次に,resnet18モデルを複数の病理組織学的データセットにまたがってトレーニングし,それらの間を相互に伝達することにより,固有知識の量と品質を決定する。
さらに,重量蒸留を用いてモデル間の知識を付加訓練なしで共有する。
また、imagenetのような大きなソースドメインを組み込んだ2段階の学習フレームワークによって、より小さなデータセットをより有効活用することができます。
さらに, 重み蒸留により, 純粋に病理組織学的特徴を訓練したモデルが, 外部自然画像データを用いたモデルよりも優れていることがわかった。
関連論文リスト
- Transfer Learning between Motor Imagery Datasets using Deep Learning --
Validation of Framework and Comparison of Datasets [0.0]
本稿では,コンピュータビジョンによく用いられる,シンプルなディープラーニングベースのフレームワークを提案する。
精神画像復号処理におけるデータセット間変換学習の有効性を実証する。
論文 参考訳(メタデータ) (2023-09-04T20:58:57Z) - Pick the Best Pre-trained Model: Towards Transferability Estimation for
Medical Image Segmentation [20.03177073703528]
転送学習は、難しい医用画像分割タスクのために、ディープニューラルネットワークをトレーニングする上で重要なテクニックである。
医用画像セグメンテーションのための新しい転送可能性推定法を提案する。
医用画像のセグメンテーションにおける転送可能性推定のアルゴリズムを網羅した手法を提案する。
論文 参考訳(メタデータ) (2023-07-22T01:58:18Z) - Transfer Learning with Deep Tabular Models [66.67017691983182]
上流データにより、グラフニューラルネットワークはGBDTモデルよりも決定的な優位性を示す。
そこで本研究では,表在化学習のための現実的な診断ベンチマークを提案する。
上流と下流の特徴セットが異なる場合の擬似特徴法を提案する。
論文 参考訳(メタデータ) (2022-06-30T14:24:32Z) - Terrain Classification using Transfer Learning on Hyperspectral Images:
A Comparative study [0.13999481573773068]
畳み込みニューラルネットワーク(CNN)とMulti-Layer Perceptron(MLP)は画像分類の有効な方法であることが証明されている。
しかし、彼らは長いトレーニング時間と大量のラベル付きデータの要求の問題に悩まされている。
本稿では,移動学習法を用いてトレーニング時間を短縮し,大規模ラベル付きデータセットへの依存を減らすことを提案する。
論文 参考訳(メタデータ) (2022-06-19T14:36:33Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - LifeLonger: A Benchmark for Continual Disease Classification [59.13735398630546]
MedMNISTコレクションの連続的な疾患分類のためのベンチマークであるLifeLongerを紹介する。
タスクとクラスでの病気の漸進的な学習は、モデルをスクラッチから再トレーニングすることなく、新しいサンプルを分類する問題に対処する。
クロスドメインインクリメンタル学習は、これまで得られた知識を維持しながら、異なる機関から派生したデータセットを扱う問題に対処する。
論文 参考訳(メタデータ) (2022-04-12T12:25:05Z) - How Well Do Sparse Imagenet Models Transfer? [75.98123173154605]
転送学習は、大規模な"上流"データセットで事前訓練されたモデルが、"下流"データセットで良い結果を得るために適応される古典的なパラダイムである。
本研究では、ImageNetデータセットでトレーニングされた畳み込みニューラルネットワーク(CNN)のコンテキストにおいて、この現象を詳細に調査する。
スパースモデルでは, 高空間であっても, 高密度モデルの転送性能にマッチしたり, 性能に優れることを示す。
論文 参考訳(メタデータ) (2021-11-26T11:58:51Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - Self supervised contrastive learning for digital histopathology [0.0]
我々はSimCLRと呼ばれる対照的な自己教師型学習手法を用いて、自然シーン画像の最先端結果を得た。
異なる種類の染色特性と分解特性とを組み合わせることで,学習した特徴の質が向上することがわかった。
学習した機能に基づいてトレーニングされた線形分類器は、デジタル病理学データセットで事前トレーニングされたネットワークが、ImageNet事前トレーニングされたネットワークよりも優れたパフォーマンスを示すことを示している。
論文 参考訳(メタデータ) (2020-11-27T19:18:45Z) - Siloed Federated Learning for Multi-Centric Histopathology Datasets [0.17842332554022694]
本稿では,医学領域における深層学習アーキテクチャのための新しいフェデレーション学習手法を提案する。
局所統計バッチ正規化(BN)層が導入され、協調的に訓練されるが中心に固有のモデルが作られる。
本研究では,Camelyon16およびCamelyon17データセットから抽出した腫瘍組織像の分類法についてベンチマークを行った。
論文 参考訳(メタデータ) (2020-08-17T15:49:30Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。