論文の概要: Magnification Prior: A Self-Supervised Method for Learning
Representations on Breast Cancer Histopathological Images
- arxiv url: http://arxiv.org/abs/2203.07707v1
- Date: Tue, 15 Mar 2022 07:54:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 04:47:27.759221
- Title: Magnification Prior: A Self-Supervised Method for Learning
Representations on Breast Cancer Histopathological Images
- Title(参考訳): 乳がんの病理組織像における自己監督的表現法
- Authors: Prakash Chandra Chhipa, Richa Upadhyay, Gustav Grund Pihlgren,
Rajkumar Saini, Seiichi Uchida and Marcus Liwicki
- Abstract要約: 本研究は, 病理組織像にラベルを付けずに効率的な表現を学習するための, 自己指導型事前学習法を提案する。
提案手法であるMPCS(Magni Prior Contrastive similarity)は,小規模乳癌データセットBreakHisにラベルを付けずに自己教師付き表現の学習を可能にする。
- 参考スコア(独自算出の注目度): 10.788247816817128
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work presents a novel self-supervised pre-training method to learn
efficient representations without labels on histopathology medical images
utilizing magnification factors. Other state-of-theart works mainly focus on
fully supervised learning approaches that rely heavily on human annotations.
However, the scarcity of labeled and unlabeled data is a long-standing
challenge in histopathology. Currently, representation learning without labels
remains unexplored for the histopathology domain. The proposed method,
Magnification Prior Contrastive Similarity (MPCS), enables self-supervised
learning of representations without labels on small-scale breast cancer dataset
BreakHis by exploiting magnification factor, inductive transfer, and reducing
human prior. The proposed method matches fully supervised learning
state-of-the-art performance in malignancy classification when only 20% of
labels are used in fine-tuning and outperform previous works in fully
supervised learning settings. It formulates a hypothesis and provides empirical
evidence to support that reducing human-prior leads to efficient representation
learning in self-supervision. The implementation of this work is available
online on GitHub -
https://github.com/prakashchhipa/Magnification-Prior-Self-Supervised-Method
- Abstract(参考訳): 本研究は, 拡大因子を用いた病理組織像にラベルを付けずに効率的な表現を学習するための, 自己指導型事前学習法を提案する。
他の最先端の研究は主に人間のアノテーションに大きく依存する完全な教師付き学習アプローチに焦点を当てている。
しかし、ラベル付きおよびラベルなしデータの不足は、病理学における長年にわたる課題である。
現在、ラベルのない表現学習は、病理学領域では未発見である。
提案手法であるmpcs(magnification prior contrastive similarity, magnification prior contrastive similarity)は,乳がんの小規模データセットにおけるラベルのない表現の自己教師あり学習を可能にする。
提案手法は, 完全教師付き学習環境において, ラベルの20%のみを微調整や性能向上に使用した場合に, 悪性度分類における完全教師付き学習性能と一致させる。
仮説を定式化し、人間の優位性を減らすことが自己監督における効率的な表現学習につながるという実証的な証拠を提供する。
この作業の実装はGitHubhttps://github.com/prakashchhipa/Magnification-Prior-Self-Supervised-Methodで公開されている。
関連論文リスト
- Enhancing Visual Continual Learning with Language-Guided Supervision [76.38481740848434]
継続的な学習は、モデルが以前獲得した知識を忘れずに新しいタスクを学習できるようにすることを目的としている。
ワンホットラベルが伝達する少ない意味情報は,タスク間の効果的な知識伝達を妨げている,と我々は主張する。
具体的には, PLM を用いて各クラスのセマンティックターゲットを生成し, 凍結し, 監視信号として機能する。
論文 参考訳(メタデータ) (2024-03-24T12:41:58Z) - Nucleus-aware Self-supervised Pretraining Using Unpaired Image-to-image
Translation for Histopathology Images [3.8391355786589805]
病理組織像のための新しい核認識型自己教師型プレトレーニングフレームワークを提案する。
このフレームワークは、未ペア画像から画像への変換によって核形態や分布情報を捉えることを目的としている。
7つのデータセットに対する実験により,提案手法は,Kather分類,複数インスタンス学習,および5つの高密度予測タスクにおいて,教師付き手法よりも優れていた。
論文 参考訳(メタデータ) (2023-09-14T02:31:18Z) - A Survey of the Impact of Self-Supervised Pretraining for Diagnostic
Tasks with Radiological Images [71.26717896083433]
自己教師付き事前学習は,伝達学習における特徴表現の改善に有効であることが観察されている。
本総説ではX線, CT, 磁気共鳴, 超音波画像における使用法について概説する。
論文 参考訳(メタデータ) (2023-09-05T19:45:09Z) - Seamless Iterative Semi-Supervised Correction of Imperfect Labels in
Microscopy Images [57.42492501915773]
生体内試験は、医療機器の毒性に対する動物実験の代替手段である。
人間の疲労は、深層学習を魅力的なものにするために、エラー作成に重要な役割を果たします。
我々は、不完全ラベルのシームレス反復半監督補正(SISSI)を提案する。
本手法は,物体検出に適応的な早期学習補正技術を提供する。
論文 参考訳(メタデータ) (2022-08-05T18:52:20Z) - From Labels to Priors in Capsule Endoscopy: A Prior Guided Approach for
Improving Generalization with Few Labels [4.9136996406481135]
我々は、より堅牢で一般化可能な表現を学習するために、より自由なドメイン知識を事前として使用することを提案する。
ラベルの代理として振る舞うことによって、ドメインの優先順位が表現の恩恵を受けることを実験的に示す。
我々の手法はドメインの最先端技術よりも優れている(もしくはギャップを埋める)。
論文 参考訳(メタデータ) (2022-06-10T12:35:49Z) - A Histopathology Study Comparing Contrastive Semi-Supervised and Fully
Supervised Learning [0.0]
計算病理学におけるラベル付け負担を軽減するための自己教師型学習について検討する。
ImageNetの事前学習ネットワークは,Barlow Twinsを用いた自己教師型表現よりも優れていた。
論文 参考訳(メタデータ) (2021-11-10T19:04:08Z) - Semi-supervised Contrastive Learning for Label-efficient Medical Image
Segmentation [11.935891325600952]
そこで本研究では,限定的な画素単位のアノテーションを利用して,同じラベルの画素を埋め込み空間に集めるために,教師付き局所的コントラスト損失を提案する。
ラベル付きデータの量が異なるため、我々の手法は、最先端のコントラストベースの手法や他の半教師付き学習技術よりも一貫して優れている。
論文 参考訳(メタデータ) (2021-09-15T16:23:48Z) - Visualization of Supervised and Self-Supervised Neural Networks via
Attribution Guided Factorization [87.96102461221415]
クラスごとの説明性を提供するアルゴリズムを開発した。
実験の広範なバッテリーでは、クラス固有の可視化のための手法の能力を実証する。
論文 参考訳(メタデータ) (2020-12-03T18:48:39Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - Can Semantic Labels Assist Self-Supervised Visual Representation
Learning? [194.1681088693248]
近隣環境におけるコントラスト調整(SCAN)という新しいアルゴリズムを提案する。
一連のダウンストリームタスクにおいて、SCANは従来の完全教師付きおよび自己教師付きメソッドよりも優れたパフォーマンスを達成する。
本研究は, セマンティックラベルが自己指導的手法の補助に有用であることを明らかにする。
論文 参考訳(メタデータ) (2020-11-17T13:25:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。