論文の概要: Preservational Learning Improves Self-supervised Medical Image Models by
Reconstructing Diverse Contexts
- arxiv url: http://arxiv.org/abs/2109.04379v1
- Date: Thu, 9 Sep 2021 16:05:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-10 18:20:57.567573
- Title: Preservational Learning Improves Self-supervised Medical Image Models by
Reconstructing Diverse Contexts
- Title(参考訳): 各種コンテキストの再構成による自己監督型医用画像モデルの改善
- Authors: Hong-Yu Zhou, Chixiang Lu, Sibei Yang, Xiaoguang Han, Yizhou Yu
- Abstract要約: 本稿では,自己監督型医療表現学習のためのPCRLについて紹介する。
PCRLは、事前学習ファインタニングプロトコルの下で非常に競争力のある結果をもたらし、5つの分類/分類タスクにおいて、自己監督的および監督的双方を上回っている。
- 参考スコア(独自算出の注目度): 58.53111240114021
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Preserving maximal information is one of principles of designing
self-supervised learning methodologies. To reach this goal, contrastive
learning adopts an implicit way which is contrasting image pairs. However, we
believe it is not fully optimal to simply use the contrastive estimation for
preservation. Moreover, it is necessary and complemental to introduce an
explicit solution to preserve more information. From this perspective, we
introduce Preservational Learning to reconstruct diverse image contexts in
order to preserve more information in learned representations. Together with
the contrastive loss, we present Preservational Contrastive Representation
Learning (PCRL) for learning self-supervised medical representations. PCRL
provides very competitive results under the pretraining-finetuning protocol,
outperforming both self-supervised and supervised counterparts in 5
classification/segmentation tasks substantially.
- Abstract(参考訳): 最大情報を保存することは、自己教師あり学習方法論を設計する原則の1つである。
この目標を達成するために、コントラスト学習はイメージペアとは対照的な暗黙の方法を採用する。
しかし, コントラスト推定を保存に利用するのが完全に最適とは考えていない。
さらに、より多くの情報を保存するための明示的なソリューションを導入する必要がある。
この観点から,学習表現により多くの情報を保持するために,多様な画像コンテキストを再構築する保存学習を導入する。
対照的な損失を伴って,自己指導型医療表現学習のためのPCRL(Preservational Contrastive Representation Learning)を提案する。
PCRLは、事前学習ファインタニングプロトコルの下で非常に競争力のある結果をもたらし、5つの分類/分類タスクにおいて、自己監督的および監督的双方を上回っている。
関連論文リスト
- Predicting Stroke through Retinal Graphs and Multimodal Self-supervised Learning [0.46835339362676565]
脳卒中の早期発見は介入に不可欠であり、信頼できるモデルを必要とする。
臨床情報とともに効率的な網膜像表現法を提案し,心血管の健康状態の包括的把握を試みた。
論文 参考訳(メタデータ) (2024-11-08T14:40:56Z) - ConPro: Learning Severity Representation for Medical Images using Contrastive Learning and Preference Optimization [30.31270613973337]
本稿では,医療画像における重度評価のための表現学習手法であるCon-PrOを提案する。
提案する表現学習フレームワークは,機能領域において重要な重大度順序付けを提供する。
また、重症度指標と医療領域における嗜好比較の適用性についても検討した。
論文 参考訳(メタデータ) (2024-04-29T16:16:42Z) - Multi-organ Self-supervised Contrastive Learning for Breast Lesion
Segmentation [0.0]
本稿では,臓器関連目標タスクに適した事前学習モデルとして,多臓器データセットを用いる。
対象は超音波画像における乳腺腫瘍のセグメンテーションである。
その結果,従来のコントラスト学習事前学習は,教師付きベースラインアプローチに比べて性能が向上することがわかった。
論文 参考訳(メタデータ) (2024-02-21T20:29:21Z) - Stain based contrastive co-training for histopathological image analysis [61.87751502143719]
本稿では,ヒストリボリューション画像の分類のための,新しい半教師付き学習手法を提案する。
我々は、半教師付き学習フレームワークを作成するために、パッチレベルのアノテーションと、新しいコトレーニング損失を併用した強力な監視を採用する。
透明細胞腎細胞および前立腺癌に対するアプローチを評価し,最先端の半教師あり学習法の改善を実証した。
論文 参考訳(メタデータ) (2022-06-24T22:25:31Z) - DiRA: Discriminative, Restorative, and Adversarial Learning for
Self-supervised Medical Image Analysis [7.137224324997715]
DiRAは差別的、再帰的、敵対的な学習を統一するフレームワークである。
セマンティック表現学習のために、ラベルのない医用画像から補完的な視覚情報を抽出する。
論文 参考訳(メタデータ) (2022-04-21T23:52:52Z) - Co$^2$L: Contrastive Continual Learning [69.46643497220586]
近年の自己教師型学習のブレークスルーは、このようなアルゴリズムが視覚的な表現を学習し、見えないタスクにもっとうまく移行できることを示している。
本稿では、連続的な学習と伝達可能な表現の維持に焦点を当てたリハーサルに基づく連続学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-28T06:14:38Z) - Contrastive Learning of Single-Cell Phenotypic Representations for
Treatment Classification [6.4265933507484005]
薬物開発の取り組みは、一般的に数千の細胞画像を分析して治療の可能性を見極める。
コントラスト学習フレームワークを利用して,単一セル蛍光顕微鏡画像から適切な表現を学習する。
NCSBの精度は10%向上し,NSC-NSCBは11%低下した。
論文 参考訳(メタデータ) (2021-03-30T20:29:04Z) - Heterogeneous Contrastive Learning: Encoding Spatial Information for
Compact Visual Representations [183.03278932562438]
本稿では,エンコーディング段階に空間情報を加えることで,対照的な目的と強いデータ拡張操作の間の学習の不整合を緩和する効果的な手法を提案する。
提案手法は,視覚表現の効率を向上し,自己指導型視覚表現学習の今後の研究を刺激する鍵となるメッセージを提供する。
論文 参考訳(メタデータ) (2020-11-19T16:26:25Z) - Self-supervised Co-training for Video Representation Learning [103.69904379356413]
実例に基づく情報ノイズコントラスト推定訓練に意味クラス正の付加を施すことの利点について検討する。
本稿では,インフォネッションNCEの損失を改善するための,自己指導型協調学習手法を提案する。
本研究では,2つの下流タスク(行動認識とビデオ検索)における学習表現の質を評価する。
論文 参考訳(メタデータ) (2020-10-19T17:59:01Z) - A Simple Framework for Contrastive Learning of Visual Representations [116.37752766922407]
本稿では,視覚表現のコントラスト学習のためのシンプルなフレームワークであるSimCLRについて述べる。
我々は,データ拡張の構成が効果的な予測タスクを定義する上で重要な役割を担っていることを示す。
我々は、ImageNet上での自己教師付き半教師付き学習において、従来の手法よりもかなり優れています。
論文 参考訳(メタデータ) (2020-02-13T18:50:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。