論文の概要: Benchmarking Self-Supervised Learning on Diverse Pathology Datasets
- arxiv url: http://arxiv.org/abs/2212.04690v2
- Date: Tue, 18 Apr 2023 15:07:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 18:04:31.655524
- Title: Benchmarking Self-Supervised Learning on Diverse Pathology Datasets
- Title(参考訳): 異種病理データセットにおける自己監督学習のベンチマーク
- Authors: Mingu Kang, Heon Song, Seonwook Park, Donggeun Yoo, S\'ergio Pereira
- Abstract要約: 自己教師付き学習は、ラベルのないデータを活用する効果的な方法であることが示されている。
我々は、病理画像データに基づいてSSL事前トレーニングを行う最大規模の研究を行う。
核インスタンスセグメンテーションの課題に対してSSLを初めて適用する。
- 参考スコア(独自算出の注目度): 10.868779327544688
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computational pathology can lead to saving human lives, but models are
annotation hungry and pathology images are notoriously expensive to annotate.
Self-supervised learning has shown to be an effective method for utilizing
unlabeled data, and its application to pathology could greatly benefit its
downstream tasks. Yet, there are no principled studies that compare SSL methods
and discuss how to adapt them for pathology. To address this need, we execute
the largest-scale study of SSL pre-training on pathology image data, to date.
Our study is conducted using 4 representative SSL methods on diverse downstream
tasks. We establish that large-scale domain-aligned pre-training in pathology
consistently out-performs ImageNet pre-training in standard SSL settings such
as linear and fine-tuning evaluations, as well as in low-label regimes.
Moreover, we propose a set of domain-specific techniques that we experimentally
show leads to a performance boost. Lastly, for the first time, we apply SSL to
the challenging task of nuclei instance segmentation and show large and
consistent performance improvements under diverse settings.
- Abstract(参考訳): 計算病理学は人間の命を救う可能性があるが、モデルは空腹であり、病理画像は注釈を付けるのに非常に高価である。
自己教師付き学習はラベルのないデータを活用する効果的な方法であり、その病理学への応用は下流のタスクに大きな恩恵をもたらす可能性がある。
しかし、SSLメソッドを比較して、病理学に適応する方法を議論する原則的な研究は存在しない。
このニーズに対処するため,我々はこれまで,病理画像データに対するssl事前トレーニングに関する最大規模の調査を行った。
本研究は,下流タスクの4つの代表的SSL手法を用いて行った。
病理学における大規模ドメインアライメント前トレーニングは,リニアや微調整評価などの標準ssl設定や低ラベルレジームにおいて,イメージネット前トレーニングを一貫して上回っている。
さらに,実証実験により性能向上につながる一連のドメイン固有手法を提案する。
最後に,核インスタンスセグメンテーションの課題に対してSSLを初めて適用し,多様な設定下での大規模かつ一貫したパフォーマンス向上を示す。
関連論文リスト
- A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - Adapting Self-Supervised Learning for Computational Pathology [3.009236957464476]
自己教師あり学習(SSL)は、タスク固有の監督なしに様々なタスクにうまく適応できるネットワークを訓練するための重要な技術として登場した。
本稿では、DINOv2アルゴリズムを中心に、病理データに対するSSLの修正について検討する。
論文 参考訳(メタデータ) (2024-05-02T19:22:39Z) - Self-supervised learning for skin cancer diagnosis with limited training data [0.196629787330046]
自己教師付き学習(SSL)は、限られたトレーニングデータを持つシナリオに対するImageNetの標準教師付き事前トレーニングの代替である。
textitfurther SSL をタスク固有のデータセットで事前トレーニングし、その実装は教師あり転送学習によって動機づけられる。
タスク固有のデータに対するより最小限のSSL事前トレーニングは、限られたラベル付きデータによる医療画像分類タスクにおいて、ImageNet上の大規模なSSL事前トレーニングと同じくらい効果的である。
論文 参考訳(メタデータ) (2024-01-01T08:11:38Z) - Understanding and Improving the Role of Projection Head in
Self-Supervised Learning [77.59320917894043]
自己教師付き学習(SSL)は、人間のラベル付きデータアノテーションにアクセスせずに有用な特徴表現を作成することを目的としている。
現在の対照的な学習アプローチは、InfoNCEの目的を最適化するために、あるバックボーンネットワークの端にパラメータ化されたプロジェクションヘッドを付加する。
学習可能なプロジェクションヘッドが、トレーニング後にそれを破棄する場合、なぜ必要となるのか?
論文 参考訳(メタデータ) (2022-12-22T05:42:54Z) - Data-Limited Tissue Segmentation using Inpainting-Based Self-Supervised
Learning [3.7931881761831328]
プレテキストタスクを含む自己教師付き学習(SSL)メソッドは、ラベルなしデータを使用したモデルの最初の事前トレーニングによって、この要件を克服する可能性を示している。
ラベル限定シナリオにおけるCTとMRI画像のセグメンテーションにおける2つのSSL手法の有効性を評価する。
最適に訓練され,実装が容易なSSLセグメンテーションモデルは,ラベル制限シナリオにおけるMRIおよびCT組織セグメンテーションの古典的な手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-14T16:34:05Z) - Dive into Self-Supervised Learning for Medical Image Analysis: Data,
Models and Tasks [8.720079280914169]
自己教師付き学習は、様々な医療画像のタスクにおいて、大量の未ラベルデータから先行情報を減らすことによって、顕著なパフォーマンスを達成している。
SSLのキャパシティを、4つの現実的で重要な問題の観点から活用することに重点を置いています。
我々は,予測的,コントラスト的,生成的,マルチSSLアルゴリズムに関する広範な実験を通じて,大規模で詳細な研究を行う。
論文 参考訳(メタデータ) (2022-09-25T06:04:11Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - DATA: Domain-Aware and Task-Aware Pre-training [94.62676913928831]
我々は、自己教師付き学習(SSL)に特化した、シンプルで効果的なNASアプローチであるDataを提示する。
提案手法は,画像分類,オブジェクト検出,セマンティックセグメンテーションなど,下流タスクにおける計算コストの広い範囲にわたる有望な結果を実現する。
論文 参考訳(メタデータ) (2022-03-17T02:38:49Z) - Improving Self-supervised Learning with Hardness-aware Dynamic
Curriculum Learning: An Application to Digital Pathology [2.2742357407157847]
自己教師付き学習(SSL)は、最近、多くの画像解析タスクに有用な汎用的な視覚表現を学習する大きな可能性を示している。
既存のSSLメソッドは、ラベル付きトレーニングインスタンスの数が少ない場合や、転送ドメイン間のドメインシフトが重要である場合、ダウンストリームタスクに一般化できない。
本稿では,カリキュラム学習のレンズを用いて,自己指導型事前学習表現の改善を試みる。
論文 参考訳(メタデータ) (2021-08-16T15:44:48Z) - Self-Supervised Learning of Graph Neural Networks: A Unified Review [50.71341657322391]
ラベルなしサンプルを多用する新たなパラダイムとして,自己教師型学習が登場している。
SSLを用いたグラフニューラルネットワーク(GNNs)のトレーニング方法の統一レビューを提供します。
gnnに対するssl手法の処理は,様々な手法の類似性と相違に光を当て,新しい手法やアルゴリズムの開発段階を定めている。
論文 参考訳(メタデータ) (2021-02-22T03:43:45Z) - On Data-Augmentation and Consistency-Based Semi-Supervised Learning [77.57285768500225]
最近提案された整合性に基づく半教師付き学習(SSL)手法は,複数のSSLタスクにおいて最先端技術である。
これらの進歩にもかかわらず、これらの手法の理解はまだ比較的限られている。
論文 参考訳(メタデータ) (2021-01-18T10:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。